La proposition de loi californienne “Safe and Secure Innovation for Frontier Artificial Intelligence Systems Act” (SB 1047, cf. ici) a eu une courte vie : Le gouverneur de Californie Gavin Newsom a mis son veto à la SB 1047 ou a refusé d’apposer sa signature au bas de la SB 1047 (Veto). Il craint en particulier
- que l’on peut avoir l’impression d’une fausse sécurité si la loi ne réglemente que les très grands fournisseurs – les modèles plus petits pourraient aussi être dangereux ;
- le projet de loi n’aborde pas suffisamment les risques réels, par exemple si un modèle est exploité dans un contexte plus délicat, prend des décisions délicates ou utilise des données délicates ;
Certes, une réglementation ne doit pas attendre les grandes catastrophes, et la Californie peut tout à fait oser faire cavalier seul en matière de réglementation. Mais il faut se baser sur des expériences concrètes et sur la science :
Je ne suis toutefois pas d’accord avec le fait que pour préserver la sécurité du public, nous devons opter pour une solution qui n’est pas informée par une analyse empirique de la trajectoire des systèmes et des capacités d’Al.
Une certaine contradiction entre la tentative de prévenir les risques et le besoin de ne réglementer que sur la base de données concrètes apparaît ici, tout comme dans les discussions en Suisse. Cette contradiction ne peut être résolue que si la réglementation peut réagir rapidement :
Ultimately, any framework for effectively regulating Al needs to keep on the line with the technology itself.
En Suisse, en dehors du droit d’urgence, c’est loin d’être garanti, ce qui soulève la question de savoir dans quelle mesure le législateur peut réellement se fier à l’empirisme.