Takea­ways (AI):
  • Der kali­for­ni­sche Senat hat den Gesetz­ent­wurf SB 1047 ver­ab­schie­det, der AI-Sicher­heit ver­bes­sern soll.
  • Ent­wick­ler müs­sen Cyber­si­cher­heits­mass­nah­men vor dem Trai­ning von AI-Model­len umsetzen.
  • Ein Com­pli­ance-State­ment muss jähr­lich beim Att­or­ney Gene­ral ein­ge­reicht werden.
  • Es gilt eine Mel­de­pflicht für Safe­ty Inci­dents und Preis­dis­kri­mi­nie­rung wird verboten.
  • Das Schick­sal des Gesetz­ent­wurfs hängt von Gavin News­om ab, des­sen Unter­schrift erfor­der­lich ist.

Der kali­for­ni­sche Senat hat den Gesetz­ent­wurf SB (für “Sena­te Bill”) 1047 ver­ab­schie­det, den Safe and Secu­re Inno­va­ti­on for Fron­tier Arti­fi­ci­al Intel­li­gence Systems Act. In der vor­an­ge­hen­den Dis­kus­si­on ware die Vor­ga­ben auf Betrei­ben der Indu­strie bis zu einem gewis­sen Grad auf­ge­weicht worden.

SB 1047 sieht eine Ände­rung bestehen­der kali­for­ni­scher Geset­ze vor, des Busi­ness and Pro­fes­si­ons Code und des Govern­ment Code. Im Kern müs­sen Ent­wick­ler eines erfass­ten AI-Modells (“cover­ed model”) schon vor dem Trai­ning bestimm­te Mass­nah­men tref­fen, u.a. die folgenden:

  • Cyber­si­cher­heits­mass­nah­men gegen Zugriff, Miss­brauch oder unsi­che­re Ände­run­gen treffen;
  • eine sofort wirk­sa­me Abschalt­mög­lich­keit vorsehen,
  • über ein Sicher­heits­pro­to­koll ver­fü­gen, doku­men­tie­ren, imple­men­tie­ren, auf­be­wah­ren und jähr­lich überprüfen.

Vor der Ver­wen­dung müs­sen Ent­wick­ler wei­te­re Mass­nah­men treffen:

  • Ein­schät­zen, ob das Modell “cri­ti­cal harms” ver­ur­sa­chen kann, d.h. in der Lage ist, 
    • eine che­mi­sche, bio­lo­gi­sche, radio­lo­gi­sche oder nuklea­re Waf­fe her­zu­stel­len oder einzusetzen;
    • einen Scha­den von min­de­stens USD 500M durch Cyber­an­grif­fe auf kri­ti­sche Infra­struk­tu­ren (ein Zehn­tel des­sen, was der Crowd­strike-Vor­fall ver­ur­sacht haben soll) oder durch (teil-)autonomes Ver­hal­ten zu ver­ur­sa­chen, das bestimm­te qua­lif­zier­te Fol­gen hat und einem Straf­tat­be­stand ent­spricht, der Vor­satz oder gro­be Fahr­läs­sig­keit voraussetzt;
    • ande­re Bedro­hun­gen der öffent­li­chen Sicher­heit ver­gleich­ba­rer Schwe­re zu verursachen.
  • nach­voll­zieh­ba­re Infor­ma­tio­nen über das Trai­ning und Tests aufbewahren;
  • Risi­ko­mi­ti­gie­rungs­mass­nah­men gegen “cri­ti­cal harms” treffen;
  • die Nach­voll­zieh­bar­keit des Modells sicher­stel­len, damit sei­ne Hand­lun­gen und etwa­ige Schä­den zuor­den­bar sind.

Zudem muss jähr­lich ein Com­pli­ance-State­ment beim Att­or­ney Gene­ral ein­ge­reicht werden.

Wei­ter gilt eine Mel­de­pflicht für Safe­ty Inci­dents, und ver­bo­ten wird die Preis­dis­kri­mi­nie­rung, mit Blick auf die Markt­macht der Anbie­ter mäch­ti­ger Model­le, und es gibt einen gewis­sen Schutz für Whist­le­b­lower.

Die­se Vor­ga­ben betref­fen beson­ders mäch­ti­ge oder sonst all­ge­mein ein­setz­ba­re Model­le, ana­log der Schwel­le des GPAI-Modells mit syste­mi­schen Risi­ken im AI Act (Art. 51 Abs. 2), unter Vor­be­halt von Model­len, die auf einem bestehen­den Modell auf­set­zen (“deri­va­ti­ve model”).

Anfor­de­run­gen gel­ten auch für die Betrei­ber von Infra­struk­tur wie Rechen­zen­tren, wenn ihre Kun­den Lei­stung bezie­hen, die für ein Trai­ning eines aus­reicht – die­se Betrei­ber haben gewis­se KYC-Pflich­ten und müs­sen in der Lage sein, die Infra­struk­tur für einen Kun­den im Not­fall herunterzufahren.

Das wei­te­re Schick­sal der SB 1047 hängt von Gou­ver­neur Gavin News­om ab, der das Gesetz unter­zeich­nen oder ein Veto aus­spre­chen kann.

AI-generierte Takeaways können falsch sein.