AI Act: Eini­gung von Par­la­ment und Rat

Ver­tre­ter des Euro­päi­schen Par­la­ments und des Rats haben am Frei­tag nach einer mehr­tä­ti­gen Debat­te doch noch eine Eini­gung über den AI Act erzielt (Medi­en­mit­tei­lung). Der AI Act ist sei­ner Ver­ab­schie­dung dadurch den ent­schei­den­den Schritt näher gerückt. Er muss aller­dings noch for­mell in Abstim­mun­gen im Par­la­ment und im Rat ver­ab­schie­det werden.

Am Don­ners­tag war ein vor­läu­fi­ger Kom­pro­miss über den Ein­be­zug von Foun­da­ti­on Models gefun­den wor­den, ein Piè­ce de Rési­stance in der Dis­kus­si­on (sie­he hier). Die Defi­ni­ti­on der vom AI Act erfass­ten Syste­me lehnt sich nun offen­bar an jene der OECD an, die seit einer Anpas­sung am 8. Novem­ber 2023 nicht mehr ver­langt, dass AI-Syste­me von Men­schen vor­ge­ge­be­ne Zie­le ver­fol­gen, son­dern nun wie folgt lautet:

An AI system is a machi­ne-based system that, for expli­cit or impli­cit objec­ti­ves, infers, from the input it recei­ves, how to gene­ra­te out­puts such as pre­dic­tions, con­tent, recom­men­da­ti­ons, or decis­i­ons that can influence phy­si­cal or vir­tu­al envi­ron­ments. Dif­fe­rent AI systems vary in their levels of auto­no­my and adap­ti­ve­ness after deployment.

Die­se Defi­ni­ti­on bezieht Foun­da­ti­on Models mit ein. Foun­da­ti­on Models hei­ssen so, weil sich die­se Machi­ne Lear­ning-Model­le auf­grund des Trai­nings mit umfang­rei­chen Daten für eine Viel­zahl von Anwen­dun­gen eig­nen (Spa­ni­en hat­te in der Dis­kus­si­on um den AI Act fol­gen­de Defi­ni­ti­on vor­ge­schla­gen: Ein “AI model that is capa­ble to com­pe­tent­ly per­form a wide ran­ge of distinc­ti­ve tasks”).

Weil Foun­da­ti­on Models nicht auf eine bestimm­te Anwen­dung beschränkt sind, wer­den sie mit dem Kom­mis­si­ons­vor­schlag des AI Act schlecht erfasst. In der nun erziel­ten Eini­gung wird offen­bar ein von Spa­ni­en vor­ge­schla­ge­ner gestuf­ter Ansatz über­nom­men. Dabei gel­ten für alle Model­le Trans­pa­renz­pflich­ten (bspw. was das Trai­ning betrifft), AI-gene­rier­te Inhal­te müs­sen als sol­che erkenn­bar sein, und das Urhe­ber­recht muss – selbst­ver­ständ­lich – ein­ge­hal­ten werden.

Bestimm­te Foun­da­ti­on Models wer­den als “syste­mic” – stär­ker regu­liert, d.h. sol­che, die ein syste­mi­sches Risi­ko dar­stel­len. Dazu gehö­ren Model­le, die mit einer beson­ders hohen Rechen­lei­stung trai­niert wur­den. Sie müs­sen bspw. einer Eva­lua­ti­on und Tests (Red Team) unter­zo­gen wer­den, es mus­sen System­ri­si­ken bewer­ten und miti­giert wer­den, die Kom­mis­si­on muss über schwer­wie­gen­de Vor­fäl­le infor­miert wer­den, die Cyber­si­cher­heit ist zu gewähr­lei­sten, und es muss über ihre Ener­gie­ef­fi­zi­enz berich­tet werden.

Eben­falls sei ein Kom­pro­miss über den Umgang mit Open-Source-Model­len erzielt wor­den. Kosten­lo­se und Open-Source-Syste­me sol­len nur vom AI Act erfasst wer­den, wenn sie eine ver­bo­te­ne Prak­tik sind, in die Kate­go­rie eines Hoch­ri­si­ko-Systems fal­len oder zu Mani­pu­la­ti­on geeig­net sind.

Am Frei­tag dreh­te sich die Debat­te offen­bar beson­ders um den Umgang mit bio­me­tri­schen Erken­nungs­sy­ste­men im öffent­li­chen Raum und die Fra­ge, ob es öffent­li­che Stel­len erlaubt sein soll, bio­me­tri­sche Syste­me ein­zu­set­zen, um Per­so­nen nach Kri­te­ri­en wie Geschlecht, Ras­se, Reli­gi­on usw. zu kate­go­ri­sie­ren, Emo­tio­nen zu erken­nen oder für die Poli­zei­ar­beit (“pre­dic­ti­ve poli­cing”). Eini­ge Mit­glied­staa­ten hal­ten den Ein­satz sol­cher Prak­ti­ken für Sicher­heits­zwecke für ange­zeigt, bspw. Frank­reich für die Olym­pi­schen Spie­le 2024.

Bei den Hoch­ri­si­ko-Syste­men soll u.a. ein Grund­rechts-Assess­ment (Fun­da­men­tal Rights Impact Assess­ment) zwin­gend wer­den. Auch was die ver­bo­te­nen Prak­ti­ken betrifft, wur­de Eini­gung erreicht. Fol­gen­de Prak­ti­ken sol­len ver­bo­ten sein:

  • bio­me­tri­sche Kate­go­ri­sie­rungs­sy­ste­me, die beson­ders schüt­zens­wer­te Daten bzw. Infor­ma­tio­nen ver­wen­den (z. B. poli­ti­sche, reli­giö­se oder phi­lo­so­phi­sche Über­zeu­gun­gen, sexu­el­le Ori­en­tie­rung, Rasse);
  • unge­ziel­tes Aus­le­sen von Gesichts­bil­dern aus dem Inter­net oder Video­über­wa­chungs­an­la­gen zur Erstel­lung ent­spre­chen­der Datenbanken;
  • Emo­ti­ons­er­ken­nung am Arbeits­platz und in Bildungseinrichtungen;
  • Social Scoring auf Grund­la­ge des Sozi­al­ver­hal­tens oder per­sön­li­cher Merkmale;
  • AI-Syste­me, die Men­schen manipulieren;
  • AI-Syste­me, die Schwä­chen (auf­grund des Alters, einer Behin­de­rung oder der sozia­len oder wirt­schaft­li­chen Lage) ausnutzen.

Bei den Sank­tio­nen wur­den die Ober­gren­zen je nach Art des Ver­sto­sses und Grö­sse des Unter­neh­mens auf EUR 35M bzw. 7% des welt­wei­ten Umsat­zes oder EUR 7.5M oder 1.5 % des Umsat­zes angesetzt.

Inner­halb der EU-Kom­mis­si­on soll fer­ner ein Amt für künst­li­che Intel­li­genz ein­ge­rich­tet wer­den (das AI Office). Hier sol­len auch die zustän­di­gen natio­na­len Behör­den zusam­men­kom­men, um eine ein­heit­li­che Anwen­dung des AI Act zu gewährleisten.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter