Dem vorgeschlagenen kalifornischen “Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act” (SB 1047, siehe hier) war ein kurzes Leben beschieden: Der kalifornische Gouverneur Gavin Newsom hat sein Veto gegen die SB 1047 eingelegt bzw. weigert sich, seine Unterschrift unter die SB 1047 zu setzen (Veto). Er befürchte insbesondere,
- dass der Eindruck falscher Sicherheit entstehen kann, wenn das Gesetz nur die allergrössten Anbieter reguliert – auch kleinere Modelle könnten gefährlich sein;
- der Gesetzentwurf nicht ausreichend auf die echten Risiken eingehe, bspw. ob ein Modell einem heikleren Kontext betrieben wird, heikle Entscheidungen trifft oder heikle Daten verwendet;
Zwar dürfe eine Regulierung nicht auf grössere Katastrophen warten, und Kalifornien könne durchaus einen regulatorischen Alleingang wagen. Man müsse aber von konkreten Erfahrungen und der Wissenschaft ausgehen:
I do not agree, however, that to keep the public safe, we must settle for a solution that is not informed by an empirical trajectory analysis of Al systems and capabilities.
Ein gewisser Widerspruch zwischen dem Versuch, Risiken zu verhindern, und dem Bedürfnis, erst auf Basis konkreter Daten zu regulieren, zeigt sich hier ebenso wie bei den Diskussionen in der Schweiz. Auflösen lässt sich dieser Widerspruch nur, wenn die Regulierung rasch reagieren kann:
Ultimately, any framework for effectively regulating Al needs to keep pace with the technology itself.
In der Schweiz ist dies ausserhalb von Notrecht alles andere als garantiert, was die Frage aufwirft, wie sehr sich der Gesetzgeber tatsächlich auf Empirie verlassen darf.