Inter­pel­la­ti­on Mar­ti (25.3199): KI-Regu­lie­rung. Droht die Abschwä­chung der Abschwächung?

Ein­ge­reich­ter Text

Der Bun­des­rat hat am 12. Febru­ar eine Aus­le­ge­ord­nung zur KI-Regu­lie­rung ver­ab­schie­det und dabei eini­ge Eck­punk­te fest­ge­legt. So plant er die Euro­pa­rats­kon­ven­ti­on zu rati­fi­zie­ren und per Ende 2026 eine Ver­nehm­las­sungs­vor­la­ge vor­zu­le­gen. In die­sem Zusam­men­hang bit­te ich den Bun­des­rat um die Beant­wor­tung fol­gen­der Fragen:

1. Die Euro­pa­rats­kon­ven­ti­on ist in der mini­ma­len Umset­zung nur für staat­li­che Akteu­re ver­bind­lich. In einem Arti­kel der Repu­blik wur­den sei­tens zivil­ge­sell­schaft­li­cher Orga­ni­sa­tio­nen der Vor­wurf erho­ben, die Euro­pa­rats­kon­ven­ti­on sei unter dem Druck der USA abge­schwächt wor­den und die Schweiz habe zu die­ser Ver­wäs­se­rung bei­getra­gen. Wie steht der Bun­des­rat zu die­sem Vor­wurf? Wie sinn­voll war dies ange­sichts des Risi­kos, dass die USA die­se Kon­ven­ti­on nicht ver­bind­lich rati­fi­zie­ren würde?

2. Setzt der Bun­des­rat nur auf eine mini­ma­le Umset­zung der Euro­pa­rats­kon­ven­ti­on oder wird er eine wei­ter­ge­hen­de Lösung suchen, die auch die pri­va­ten Akteu­re in die Pflicht nimmt?

3. War­um prio­ri­siert der Bun­des­rat in sei­ner Aus­le­ge­ord­nung und sei­ner Medi­en­mit­tei­lung die Inno­va­ti­ons­för­de­rung und die posi­ti­ven Effek­te für Wirt­schaft anstatt die Men­schen­rech­te oder Bedeu­tung von KI für eine nach­hal­ti­ge, kli­ma­ge­rech­te Gesellschaft?

4. Der Bun­des­rat hat zudem ange­kün­digt, den EU AI Act nicht zu über­neh­men. In der Euro­pa­rats­kon­ven­ti­on ist das Ver­bot sowie die Regu­lie­rung gewis­ser Hoch­ri­si­ko­an­wen­dun­gen nicht ver­bind­lich vor­ge­se­hen, im EU AI Act schon. Ist der Bun­des­rat der Mei­nung, dass es nicht nötig sei, expli­zit gewis­se Anwen­dun­gen (z.B. Social Scoring) zu ver­bie­ten und ris­kan­te und heik­le Anwen­dun­gen (z.B. bei der Nut­zung geschütz­ter Per­so­nen­da­ten) zu regu­lie­ren und damit für eine Pro­duk­te­si­cher­heit zu sorgen?

5. War­um sieht der Bun­des­rat gene­rell zu Regu­lie­rung bezüg­lich Pro­duk­te­si­cher­heit und ‑haf­tung ab?

6. War­um ist kei­ne Rege­lung im Bereich der Ver­wen­dung von Trai­nings­da­ten für KI-Anwen­dun­gen vor­ge­se­hen, zumal sich die schwei­ze­ri­sche Urhe­ber­rechts­ge­setz­ge­bung von der ame­ri­ka­ni­schen und der euro­päi­schen unterscheidet?

7. Inwie­weit ist die Rechts­si­cher­heit für Schwei­zer Unter­neh­men, die euro­pä­isch tätig sind, gege­ben, wenn die Schweiz nicht euro­päi­sches Recht übernimmt?

8. War­um soll bis Ende 2026 abge­war­tet wer­den, bis eine Vor­la­ge aus­ge­ar­bei­tet wird?

9. Wes­halb spie­len Nach­hal­tig­keits­er­wä­gun­gen im Eck­wert­pa­pier kei­ne Rolle?

Stel­lung­nah­me des Bun­des­rats vom 14.5.2025

1. Die Schweiz hat sich aktiv an den Ver­hand­lun­gen der KI-Kon­ven­ti­on des Euro­pa­rats betei­ligt. Der Bun­des­rat ist der Ansicht, dass die Zie­le des Ver­hand­lungs­man­dats vom 16. Sep­tem­ber 2022 erreicht wur­den, ins­be­son­de­re die Har­mo­ni­sie­rung des inter­na­tio­na­len Rechts­rah­mens im Bereich der KI. Die KI-Kon­ven­ti­on ist ein Rah­men­ab­kom­men, das sich an die Ver­trags­staa­ten rich­tet. Sei­ne Bestim­mun­gen sind nicht direkt anwend­bar. Den­noch sind pri­va­te Akteu­re gemäss Art. 3, Abs. 1, Bst. b der KI-Kon­ven­ti­on betrof­fen. Dem­nach sind Staa­ten ver­pflich­tet, in Über­ein­stim­mung mit dem Ziel und dem Zweck der Kon­ven­ti­on die Risi­ken und Aus­wir­kun­gen anzu­ge­hen, die sich aus den Tätig­kei­ten inner­halb des gan­zen Lebens­zy­klus der im pri­va­ten Sek­tor ver­wen­de­ten KI-Syste­me erge­ben. Ziel die­ser For­mu­lie­rung war, den Beson­der­hei­ten ver­schie­de­ner Rechts­sy­ste­me – ins­be­son­de­re auch von Staa­ten ausser­halb Euro­pas – im Bereich des Grund­rechts­schut­zes ange­mes­sen Rech­nung zu tra­gen und somit die Rati­fi­ka­ti­on der Kon­ven­ti­on einem brei­te­ren Kreis von Staa­ten zu ermög­li­chen. Sol­che Beson­der­hei­ten sind auch für die Schweiz rele­vant. Die Schweiz hat die­se Kon­ven­ti­on am 27. März 2025 unter­zeich­net, wie es bis jetzt die Euro­päi­sche Uni­on und 13 wei­te­re Staa­ten, inklu­si­ve Kana­da und Japan getan haben.

2. Gemäss der KI-Kon­ven­ti­on besteht für die Regu­lie­rung des pri­va­ten Sek­tors ein grö­sse­rer Spiel­raum als für den öffent­li­chen Sek­tor, aber es müs­sen den­noch ange­mes­se­ne Mass­nah­men ergrif­fen wer­den, um die Zie­le des Über­ein­kom­mens zu errei­chen. Der Bun­des­rat hat bei sei­ner Ent­schei­dung dar­auf hin­ge­wie­sen, dass die Rege­lun­gen in erster Linie die staat­li­chen Akteu­re betref­fen wer­den, dass aber pri­va­te Akteu­re wo nötig auch in die Pflicht genom­men wer­den, wo Grund­rech­te poten­zi­ell betrof­fen sind.

3. Die Aus­le­ge­ord­nung zählt meh­re­re, gleich­wer­ti­ge Zie­le auf, die mit dem gewähl­ten Ansatz erreicht wer­den sol­len. Dar­un­ter wird auch die Wah­rung des Grund­rechts­schut­zes expli­zit erwähnt. Zur Nach­hal­tig­keit, vgl. Ant­wort zu Fra­ge 9.

4. Der von der Schweiz gewähl­te Ansatz erlaubt es, spe­zi­fi­sche Mass­nah­men zur Gewähr­lei­stung der Pro­dukt­si­cher­heit zu prü­fen und gege­be­nen­falls umzu­set­zen. Dazu gehört auch die Mög­lich­keit, den Risi­ken beson­ders risi­ko­rei­cher Anwen­dun­gen ange­mes­sen – und falls nötig durch ein Ver­bot bestimm­ter Prak­ti­ken – zu begeg­nen. Zum jet­zi­gen Zeit­punkt ist es jedoch ver­früht, kon­kre­te Mass­nah­men zu benen­nen.

5. Der Bun­des­rat hat sich gegen eine Umset­zung der KI-Kon­ven­ti­on in Anleh­nung an den AI Act ent­schie­den und ist daher gegen die Ein­füh­rung einer hori­zon­ta­len Gesetz­ge­bung, die aus­schliess­lich auf die Pro­duk­te­si­cher­heit von KI-Syste­men aus­ge­rich­tet ist. Der gewähl­te Ansatz schliesst aber nicht aus, dass sek­tor­spe­zi­fi­sche tech­ni­sche Pro­dukt­vor­schrif­ten erlas­sen wer­den oder den Beson­der­hei­ten von KI-Syste­men in all­fäl­li­gen künf­ti­gen Revi­sio­nen von bestehen­den Spe­zi­al­ge­set­zen Rech­nung getra­gen wird.

6. Der Bun­des­rat schliesst Vor­ga­ben zur Ver­wen­dung von Trai­nings­da­ten für KI-Syste­me nicht aus. Die­ses The­ma fällt jedoch nicht direkt in den Anwen­dungs­be­reich der KI-Kon­ven­ti­on. Der Umgang mit urhe­ber­recht­lich geschütz­ten Inhal­ten in Trai­nings­da­ten wird des­halb im Rah­men sepa­ra­ter Arbei­ten geprüft, par­al­lel zur Aus­ar­bei­tung der für Ende 2026 vor­ge­se­he­nen Ver­nehm­las­sungs­vor­la­ge. In die­sem Zusam­men­hang weist der Bun­des­rat dar­auf hin, dass er die Annah­me der Moti­on Gös­si 24.4596 «Bes­se­rer Schutz des gei­sti­gen Eigen­tums vor KI-Miss­brauch» bean­tragt hat, wel­che eine ver­tie­fe Aus­ein­an­der­set­zung mit die­ser The­ma­tik verlangt.
7. Schwei­zer Unter­neh­men, die Pro­duk­te mit KI-Bestand­tei­len auf den EU-Bin­nen­markt brin­gen oder KI-Syste­me betrei­ben, deren Ergeb­nis­se in der EU genutzt wer­den, müs­sen die Vor­ga­ben des AI Acts ein­hal­ten. Um den Zugang zum EU-Bin­nen­markt zu erleich­tern wären zwei Schrit­te nötig: Erstens die Ein­füh­rung gleich­wer­ti­ger Regeln im schwei­ze­ri­schen Recht, und zwei­tens, eine Anpas­sung des Abkom­mens Schweiz – EU über die gegen­sei­ti­ge Aner­ken­nung von Kon­for­mi­täts­be­wer­tun­gen (Mutu­al Reco­gni­ti­on Agree­ment, MRA; SR 0.946.526.81). Eine Über­nah­me des AI Acts durch die Schweiz allein wür­de kei­nen erleich­ter­ten Markt­zu­gang gewährleisten.

8. Die Fri­sten wur­den ent­spre­chend der Zeit geschätzt, die für die Aus­ar­bei­tung eines Vor­ent­wurfs für ein Gesetz die­ser Grö­ssen­ord­nung erfor­der­lich ist. Zudem wer­den für die­se Vor­la­ge eine Regu­lie­rungs­fol­gen­ab­schät­zung (RFA) und gege­be­nen­falls auch eine Daten­schutz-Fol­gen­ab­schät­zung (DSFA) durch­ge­führt werden.

9. Fra­gen zur Nach­hal­tig­keit wur­den zwar nicht in die Aus­le­ge­ord­nung auf­ge­nom­men, der Bun­des­rat hat sich jedoch dafür aus­ge­spro­chen, die­se Aspek­te in sepa­ra­ten Arbei­ten zu ver­tie­fen. Ins­be­son­de­re hat er die Annah­me des Po. Fivaz 24.4679 «Stellt der Strom­ver­brauch der künst­li­chen Intel­li­genz eine Gefahr für die Ener­gie­stra­te­gie 2050 dar?» beantragt.