- Der kalifornische Senat hat den Gesetzentwurf SB 1047 verabschiedet, der AI-Sicherheit verbessern soll.
- Entwickler müssen Cybersicherheitsmassnahmen vor dem Training von AI-Modellen umsetzen.
- Ein Compliance-Statement muss jährlich beim Attorney General eingereicht werden.
- Es gilt eine Meldepflicht für Safety Incidents und Preisdiskriminierung wird verboten.
- Das Schicksal des Gesetzentwurfs hängt von Gavin Newsom ab, dessen Unterschrift erforderlich ist.
Der kalifornische Senat hat den Gesetzentwurf SB (für “Senate Bill”) 1047 verabschiedet, den Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act. In der vorangehenden Diskussion ware die Vorgaben auf Betreiben der Industrie bis zu einem gewissen Grad aufgeweicht worden.
SB 1047 sieht eine Änderung bestehender kalifornischer Gesetze vor, des Business and Professions Code und des Government Code. Im Kern müssen Entwickler eines erfassten AI-Modells (“covered model”) schon vor dem Training bestimmte Massnahmen treffen, u.a. die folgenden:
- Cybersicherheitsmassnahmen gegen Zugriff, Missbrauch oder unsichere Änderungen treffen;
- eine sofort wirksame Abschaltmöglichkeit vorsehen,
- über ein Sicherheitsprotokoll verfügen, dokumentieren, implementieren, aufbewahren und jährlich überprüfen.
Vor der Verwendung müssen Entwickler weitere Massnahmen treffen:
- Einschätzen, ob das Modell “critical harms” verursachen kann, d.h. in der Lage ist,
- eine chemische, biologische, radiologische oder nukleare Waffe herzustellen oder einzusetzen;
- einen Schaden von mindestens USD 500M durch Cyberangriffe auf kritische Infrastrukturen (ein Zehntel dessen, was der Crowdstrike-Vorfall verursacht haben soll) oder durch (teil-)autonomes Verhalten zu verursachen, das bestimmte qualifzierte Folgen hat und einem Straftatbestand entspricht, der Vorsatz oder grobe Fahrlässigkeit voraussetzt;
- andere Bedrohungen der öffentlichen Sicherheit vergleichbarer Schwere zu verursachen.
- nachvollziehbare Informationen über das Training und Tests aufbewahren;
- Risikomitigierungsmassnahmen gegen “critical harms” treffen;
- die Nachvollziehbarkeit des Modells sicherstellen, damit seine Handlungen und etwaige Schäden zuordenbar sind.
Zudem muss jährlich ein Compliance-Statement beim Attorney General eingereicht werden.
Weiter gilt eine Meldepflicht für Safety Incidents, und verboten wird die Preisdiskriminierung, mit Blick auf die Marktmacht der Anbieter mächtiger Modelle, und es gibt einen gewissen Schutz für Whistleblower.
Diese Vorgaben betreffen besonders mächtige oder sonst allgemein einsetzbare Modelle, analog der Schwelle des GPAI-Modells mit systemischen Risiken im AI Act (Art. 51 Abs. 2), unter Vorbehalt von Modellen, die auf einem bestehenden Modell aufsetzen (“derivative model”).
Anforderungen gelten auch für die Betreiber von Infrastruktur wie Rechenzentren, wenn ihre Kunden Leistung beziehen, die für ein Training eines ausreicht – diese Betreiber haben gewisse KYC-Pflichten und müssen in der Lage sein, die Infrastruktur für einen Kunden im Notfall herunterzufahren.
Das weitere Schicksal der SB 1047 hängt von Gouverneur Gavin Newsom ab, der das Gesetz unterzeichnen oder ein Veto aussprechen kann.