Takea­ways (AI):
  • Gou­ver­neur Gavin News­om leg­te sein Veto gegen den kali­for­ni­schen Gesetz­ent­wurf SB 1047 ein.
  • Er befürch­tet, dass fal­sche Sicher­heit ent­steht, wenn nur gro­ße Anbie­ter regu­liert werden.
  • Der Gesetz­ent­wurf behan­delt nicht aus­rei­chend die ech­ten Risi­ken von KI und heik­len Entscheidungen.
  • Regu­lie­run­gen soll­ten auf kon­kre­ten Erfah­run­gen und wis­sen­schaft­li­chen Daten basieren.
  • Eine effek­ti­ve Regu­lie­rung von KI muss mit der tech­no­lo­gi­schen Ent­wick­lung Schritt halten.

Dem vor­ge­schla­ge­nen kali­for­ni­schen “Safe and Secu­re Inno­va­ti­on for Fron­tier Arti­fi­ci­al Intel­li­gence Systems Act” (SB 1047, sie­he hier) war ein kur­zes Leben beschie­den: Der kali­for­ni­sche Gou­ver­neur Gavin News­om hat sein Veto gegen die SB 1047 ein­ge­legt bzw. wei­gert sich, sei­ne Unter­schrift unter die SB 1047 zu set­zen (Veto). Er befürch­te insbesondere,

  • dass der Ein­druck fal­scher Sicher­heit ent­ste­hen kann, wenn das Gesetz nur die aller­gröss­ten Anbie­ter regu­liert – auch klei­ne­re Model­le könn­ten gefähr­lich sein;
  • der Gesetz­ent­wurf nicht aus­rei­chend auf die ech­ten Risi­ken ein­ge­he, bspw. ob ein Modell einem heik­le­ren Kon­text betrie­ben wird, heik­le Ent­schei­dun­gen trifft oder heik­le Daten verwendet;

Zwar dür­fe eine Regu­lie­rung nicht auf grö­sse­re Kata­stro­phen war­ten, und Kali­for­ni­en kön­ne durch­aus einen regu­la­to­ri­schen Allein­gang wagen. Man müs­se aber von kon­kre­ten Erfah­run­gen und der Wis­sen­schaft ausgehen:

I do not agree, howe­ver, that to keep the public safe, we must sett­le for a solu­ti­on that is not infor­med by an empi­ri­cal tra­jec­to­ry ana­ly­sis of Al systems and capabilities.

Ein gewis­ser Wider­spruch zwi­schen dem Ver­such, Risi­ken zu ver­hin­dern, und dem Bedürf­nis, erst auf Basis kon­kre­ter Daten zu regu­lie­ren, zeigt sich hier eben­so wie bei den Dis­kus­sio­nen in der Schweiz. Auf­lö­sen lässt sich die­ser Wider­spruch nur, wenn die Regu­lie­rung rasch reagie­ren kann:

Ulti­m­ate­ly, any frame­work for effec­tively regu­la­ting Al needs to keep pace with the tech­no­lo­gy itself.

In der Schweiz ist dies ausser­halb von Not­recht alles ande­re als garan­tiert, was die Fra­ge auf­wirft, wie sehr sich der Gesetz­ge­ber tat­säch­lich auf Empi­rie ver­las­sen darf.

AI-generierte Takeaways können falsch sein.