Ven­te à emporter (AI)
  • Le SB 1047 exi­ge des déve­lo­p­peurs de puis­sants modè­les d’IA qu’ils pren­nent des mesu­res de sécu­ri­té avant la for­ma­ti­on, y com­pris une cyber­pro­tec­tion, une fonc­tion d’ar­rêt et un con­trô­le annu­el de la sécurité.
  • Avant le déploie­ment, les ris­ques liés aux “cri­ti­cal harms” doi­vent être éva­lués, des don­nées de for­ma­ti­on et de test tra­ça­bles doi­vent être con­ser­vées et la réduc­tion des ris­ques et la tra­ça­bi­li­té du modè­le doi­vent être assurées.
  • Les obli­ga­ti­ons com­pren­nent une décla­ra­ti­on de con­for­mi­té annuel­le, l’ob­li­ga­ti­on de signal­er les inci­dents de sécu­ri­té, l’in­ter­dic­tion de la dis­cri­mi­na­ti­on tarifai­re, la pro­tec­tion des lan­ce­urs d’a­ler­te et les obli­ga­ti­ons KYC pour les gesti­on­n­aires d’infrastructure.

Le Sénat cali­for­ni­en a adop­té le pro­jet de loi SB (pour “Sena­te Bill”) 1047, le Loi sur l’in­no­va­ti­on sûre et sécu­ri­sée pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le de fron­tiè­re. Au cours de la dis­cus­sion pré­cé­den­te, les direc­ti­ves ont été assou­plies dans une cer­taine mesu­re à l’initia­ti­ve de l’industrie.

SB 1047 pré­voit une modi­fi­ca­ti­on des lois cali­for­ni­en­nes exi­stan­tes, le Busi­ness and Pro­fes­si­ons Code et le Govern­ment Code. En sub­stance, les déve­lo­p­peurs d’un modè­le d’IA cou­vert (“cover­ed model”) doi­vent déjà avant l’en­traî­ne­ment prend­re cer­tai­nes mesu­res, notam­ment les suivantes :

  • prend­re des mesu­res de cyber­sé­cu­ri­té cont­re l’ac­cès, l’a­bus ou les modi­fi­ca­ti­ons non sécurisées
  • pré­voir une pos­si­bi­li­té de décon­ne­xi­on à effet immédiat
  • dis­po­ser d’un pro­to­co­le de sécu­ri­té, le docu­men­ter, le mett­re en œuvre, le con­ser­ver et le révi­ser chaque année.

Avant l’uti­li­sa­ti­on les déve­lo­p­peurs doi­vent prend­re des mesu­res supplémentaires :

  • Éva­luer si le modè­le “harms cri­ti­ques“c’est-à-dire qu’il est en mesu­re de le faire, 
    • de fab­ri­quer ou d’uti­li­ser une arme chi­mi­que, bio­lo­gi­que, radio­lo­gi­que ou nucléaire ;
    • cau­ser un pré­ju­di­ce d’au moins 500M USD par des cyberat­ta­ques cont­re des infras­truc­tures cri­ti­ques (un dixiè­me de ce que l’in­ci­dent Crowd­strike est cen­sé avoir causé) ou par un com­porte­ment (semi-)autonome ayant cer­tai­nes con­sé­quen­ces qua­li­fi­ées et cor­re­spond­ant à une infrac­tion péna­le impli­quant une fau­te inten­ti­on­nel­le ou une nég­li­gence grave ;
    • de pro­vo­quer d’aut­res men­aces pour la sécu­ri­té publi­que d’u­ne gra­vi­té comparable.
  • con­ser­ver des infor­ma­ti­ons com­pré­hen­si­bles sur la for­ma­ti­on et les tests ;
  • Prend­re des mesu­res de limi­ta­ti­on des ris­ques cont­re les “cri­ti­cal harms” ;
  • assurer la tra­ça­bi­li­té du modè­le afin de pou­voir attri­buer ses actions et les éven­tuels dommages.

De plus, chaque année, un Décla­ra­ti­on de con­for­mi­té être dépo­sée auprès de l’Att­or­ney General

En out­re, une Obli­ga­ti­on de signal­er les inci­dents de sécu­ri­téet inter­dit la Dis­cri­mi­na­ti­on par les prixIl y a une cer­taine pro­tec­tion pour les four­nis­seurs de modè­les puis­sants, en rai­son de leur pou­voir de mar­ché. Lan­ceur d’alerte.

Ces pre­scrip­ti­ons con­cer­nent des modè­les par­ti­cu­liè­re­ment puis­sants ou pou­vant être uti­li­sés de maniè­re géné­ra­le d’u­ne aut­re maniè­re, à l’in­star du seuil du modè­le GPAI pré­sen­tant des ris­ques sys­té­mi­ques dans l’AI Act (art. 51, al. 2), sous réser­ve des modè­les qui se basent sur un modè­le exi­stant (“deri­va­ti­ve model”).

exi­gen­ces s’ap­pli­quent éga­le­ment aux Gesti­on­n­aire d’in­fras­truc­tu­re com­me les cen­tres de don­nées, lorsque leurs cli­ents achè­tent une puis­sance suf­fi­san­te pour une for­ma­ti­on d’un – ces opé­ra­teurs ont cer­tai­nes obli­ga­ti­ons KYC et doi­vent être en mesu­re d’ar­rêter l’in­fras­truc­tu­re pour un cli­ent en cas d’urgence.

Le sort du SB 1047 dépend du gou­ver­neur Gavin News­om, qui peut signer la loi ou y oppo­ser son veto.