Kali­for­ni­en: Veto gegen den Safe and Secu­re Inno­va­ti­on for Fron­tier Arti­fi­ci­al Intel­li­gence Systems Act

Dem vor­ge­schla­ge­nen kali­for­ni­schen “Safe and Secu­re Inno­va­ti­on for Fron­tier Arti­fi­ci­al Intel­li­gence Systems Act” (SB 1047, sie­he hier) war ein kur­zes Leben beschie­den: Der kali­for­ni­sche Gou­ver­neur Gavin News­om hat sein Veto gegen die SB 1047 ein­ge­legt bzw. wei­gert sich, sei­ne Unter­schrift unter die SB 1047 zu set­zen (Veto). Er befürch­te insbesondere,

  • dass der Ein­druck fal­scher Sicher­heit ent­ste­hen kann, wenn das Gesetz nur die aller­gröss­ten Anbie­ter regu­liert – auch klei­ne­re Model­le könn­ten gefähr­lich sein;
  • der Gesetz­ent­wurf nicht aus­rei­chend auf die ech­ten Risi­ken ein­ge­he, bspw. ob ein Modell einem heik­le­ren Kon­text betrie­ben wird, heik­le Ent­schei­dun­gen trifft oder heik­le Daten verwendet;

Zwar dür­fe eine Regu­lie­rung nicht auf grö­sse­re Kata­stro­phen war­ten, und Kali­for­ni­en kön­ne durch­aus einen regu­la­to­ri­schen Allein­gang wagen. Man müs­se aber von kon­kre­ten Erfah­run­gen und der Wis­sen­schaft ausgehen:

I do not agree, howe­ver, that to keep the public safe, we must sett­le for a solu­ti­on that is not infor­med by an empi­ri­cal tra­jec­to­ry ana­ly­sis of Al systems and capabilities.

Ein gewis­ser Wider­spruch zwi­schen dem Ver­such, Risi­ken zu ver­hin­dern, und dem Bedürf­nis, erst auf Basis kon­kre­ter Daten zu regu­lie­ren, zeigt sich hier eben­so wie bei den Dis­kus­sio­nen in der Schweiz. Auf­lö­sen lässt sich die­ser Wider­spruch nur, wenn die Regu­lie­rung rasch reagie­ren kann:

Ulti­m­ate­ly, any frame­work for effec­tively regu­la­ting Al needs to keep pace with the tech­no­lo­gy itself.

In der Schweiz ist dies ausser­halb von Not­recht alles ande­re als garan­tiert, was die Fra­ge auf­wirft, wie sehr sich der Gesetz­ge­ber tat­säch­lich auf Empi­rie ver­las­sen darf.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter