- Le SB 1047 exige des développeurs de puissants modèles d’IA qu’ils prennent des mesures de sécurité avant la formation, y compris une cyberprotection, une fonction d’arrêt et un contrôle annuel de la sécurité.
- Avant le déploiement, les risques liés aux “critical harms” doivent être évalués, des données de formation et de test traçables doivent être conservées et la réduction des risques et la traçabilité du modèle doivent être assurées.
- Les obligations comprennent une déclaration de conformité annuelle, l’obligation de signaler les incidents de sécurité, l’interdiction de la discrimination tarifaire, la protection des lanceurs d’alerte et les obligations KYC pour les gestionnaires d’infrastructure.
Le Sénat californien a adopté le projet de loi SB (pour “Senate Bill”) 1047, le Loi sur l’innovation sûre et sécurisée pour les systèmes d’intelligence artificielle de frontière. Au cours de la discussion précédente, les directives ont été assouplies dans une certaine mesure à l’initiative de l’industrie.
SB 1047 prévoit une modification des lois californiennes existantes, le Business and Professions Code et le Government Code. En substance, les développeurs d’un modèle d’IA couvert (“covered model”) doivent déjà avant l’entraînement prendre certaines mesures, notamment les suivantes :
- prendre des mesures de cybersécurité contre l’accès, l’abus ou les modifications non sécurisées
- prévoir une possibilité de déconnexion à effet immédiat
- disposer d’un protocole de sécurité, le documenter, le mettre en œuvre, le conserver et le réviser chaque année.
Avant l’utilisation les développeurs doivent prendre des mesures supplémentaires :
- Évaluer si le modèle “harms critiques“c’est-à-dire qu’il est en mesure de le faire,
- de fabriquer ou d’utiliser une arme chimique, biologique, radiologique ou nucléaire ;
- causer un préjudice d’au moins 500M USD par des cyberattaques contre des infrastructures critiques (un dixième de ce que l’incident Crowdstrike est censé avoir causé) ou par un comportement (semi-)autonome ayant certaines conséquences qualifiées et correspondant à une infraction pénale impliquant une faute intentionnelle ou une négligence grave ;
- de provoquer d’autres menaces pour la sécurité publique d’une gravité comparable.
- conserver des informations compréhensibles sur la formation et les tests ;
- Prendre des mesures de limitation des risques contre les “critical harms” ;
- assurer la traçabilité du modèle afin de pouvoir attribuer ses actions et les éventuels dommages.
De plus, chaque année, un Déclaration de conformité être déposée auprès de l’Attorney General
En outre, une Obligation de signaler les incidents de sécuritéet interdit la Discrimination par les prixIl y a une certaine protection pour les fournisseurs de modèles puissants, en raison de leur pouvoir de marché. Lanceur d’alerte.
Ces prescriptions concernent des modèles particulièrement puissants ou pouvant être utilisés de manière générale d’une autre manière, à l’instar du seuil du modèle GPAI présentant des risques systémiques dans l’AI Act (art. 51, al. 2), sous réserve des modèles qui se basent sur un modèle existant (“derivative model”).
exigences s’appliquent également aux Gestionnaire d’infrastructure comme les centres de données, lorsque leurs clients achètent une puissance suffisante pour une formation d’un – ces opérateurs ont certaines obligations KYC et doivent être en mesure d’arrêter l’infrastructure pour un client en cas d’urgence.
Le sort du SB 1047 dépend du gouverneur Gavin Newsom, qui peut signer la loi ou y opposer son veto.