AI-Ver­ord­nung: Ent­wurf; Kom­pro­miss­vor­schlag der slo­we­ni­schen Ratspräsidentschaft

Ent­wurf der Verordnung

Die Euro­päi­sche Kom­mis­si­on hat­te im April 2021 den Ent­wurf einer Ver­ord­nung zur Fest­le­gung har­mo­ni­sier­ter Vor­schrif­ten für künst­li­che Intel­li­genz (AI-Ver­ord­nung) vor­ge­legt. Der­zeit befin­det sich der Ent­wurf in der Bera­tung im Euro­päi­schen Parlament.

Anwen­dungs­be­reich

Die Ver­ord­nung regu­liert KI-Syste­me. Der slo­we­ni­sche Rats­vor­sitz hat am 29. Novem­ber 2021 einen Kom­pro­miss­text ver­öf­fent­licht und dar­in u.a. den Gegen­stand und den Anwen­dungs­be­reich ergänzt und Defi­ni­tio­nen ange­passt. Ins­be­son­de­re wur­de der Begriff des “KI-Systems” geän­dert. Nicht mass­ge­bend ist dabei, ob ein System auto­nom oder als Kom­po­nen­te eines Pro­dukts funk­tio­niert. Ein KI-System ist nun bestimmt als:

arti­fi­ci­al intel­li­gence system’ (AI system) means a system that

(i) recei­ves machi­ne and/or human-based data and inputs,

(ii) infers how to achie­ve a given set of human-defi­ned objec­ti­ves using lear­ning, rea­so­ning or model­ling imple­men­ted with the tech­ni­ques and approa­ches listed in Annex I, and

(iii) gene­ra­tes out­puts in the form of con­tent (gene­ra­ti­ve AI systems), pre­dic­tions, recom­men­da­ti­ons or decis­i­ons, which influence the envi­ron­ments it inter­acts with;

Anhang I ent­hält eine Liste erfass­ter KI-Tech­no­lo­gie:

(a) Machi­ne lear­ning approa­ches, inclu­ding super­vi­sed, unsu­per­vi­sed and rein­force­ment lear­ning, using a wide varie­ty of methods inclu­ding deep learning;

(b) Logic- and know­ledge-based approa­ches, inclu­ding know­ledge repre­sen­ta­ti­on, induc­ti­ve (logic) pro­gramming, know­ledge bases, infe­rence and deduc­ti­ve engi­nes, (sym­bo­lic) rea­so­ning and expert systems;

(c) Sta­tis­ti­cal approa­ches, Bayesi­an esti­ma­ti­on, search and opti­mizati­on methods.

In räum­li­cher Hin­sicht gilt die AI-Ver­ord­nung nicht nur für Nut­zer und Anbie­ter, die in der EU nie­der­ge­las­sen sind, son­dern auch für das Inver­kehr­brin­gen von KI-Syste­men bzw. von Pro­duk­ten, die ein KI-System nut­zen, in der EU, und für Anbie­ter und Nut­zer von KI-Syste­men, soweit die von die­sen Syste­men erzeug­ten Ergeb­nis­se in der EU ver­wen­det wer­den. Erwä­gungs­grün­de 10 und 11 ent­hal­ten hier­zu wei­te­re Ausführungen.

Ver­bo­te­ne Prak­ti­ken (schwar­ze Liste)

Die Ver­ord­nung sieht ein Ver­bot für bestimm­te beson­ders ris­kan­te bzw. ethisch frag­wür­di­ge Ver­wen­dun­gen künst­li­cher Intel­li­genz vor (“ver­bo­te­ne Prak­ti­ken”), bspw. ihren Einsatz

  • zu einer Beein­flus­sung, die unbe­wusst wirkt,
  • Per­so­nen betrifft, die beson­ders schutz­be­dürf­tig sind,
  • zur Ein­stu­fung der Ver­trau­ens­wür­dig­keit von Per­so­nen im Zusam­men­hang mit sozia­ler Zuge­hö­rig­keit oder gesell­schaft­li­chem Ver­hal­ten ver­wen­det wer­den kön­nen (Social Scoring).

In die­sem Umfang ist nicht nur der Ein­satz von KI-Syste­men ver­bo­ten, son­dern bereits das Inver­kehr­brin­gen ent­spre­chen­der Syste­me. Dies ist ein wei­te­res Bei­spiel des Vor­feld­schut­zes im Daten­recht, der sich auch anders­wo beob­ach­ten lässt (z.B. bei der Pflicht zur Durch­füh­rung von Fol­gen­ab­schät­zun­gen, beim Grund­satz von pri­va­cy by design und bei der Fik­ti­on einer Per­sön­lich­keits­ver­let­zung selbst bei ver­nach­läs­sig­ba­ren Ver­let­zun­gen von Bearbeitungsgrundsätzen).

Hoch­ri­si­ko-Syste­me

Die Ver­ord­nung ver­langt unter bestimm­ten Vor­aus­set­zun­gen fer­ner eine Klas­si­fi­zie­rung von KI-Syste­men als Hoch­ri­si­ko-Syste­me (gemäss Anhang III der Ver­ord­nung), die zu beson­de­ren Anfor­de­run­gen an das System selbst führt. Dabei wer­den Syste­me zum einen durch die ver­wen­de­te Tech­no­lo­gie und zum ande­ren durch den Ein­satz in bestimm­ten Sek­to­ren als hoch­ris­kant ein­ge­stuft. Als Hoch­ri­si­ko-System gel­ten bspw. KI-Syste­me bei fol­gen­den Einsatzgebieten:

  • ein­wil­li­gungs­lo­se bio­me­tri­sche Iden­ti­fi­ka­ti­on (man kann sich hier vor­stel­len, wel­che Bedeu­tung die Wirk­sam­keit von Ein­wil­li­gun­gen in bio­me­tri­sche Iden­ti­fi­ka­tio­nen erhält, wenn die­se auf KI beruhen);
  • Sicher­heits­kom­po­nen­te in der Ver­kehrs­steue­rung, der Ener­gie­ver­sor­gung, der digi­ta­len Infra­struk­tur oder der Emissionskontrolle;
  • Zugangs­prü­fung bei Prüfungen;
  • Bewer­bungs­prü­fun­gen;
  • Kon­trol­le des Zugangs zu bestimm­ten Leistungen;
  • Straf­ver­fol­gung.

Sol­che Syste­me müs­sen Kon­for­mi­täts­be­wer­tungs­ver­fah­ren unter­zo­gen wer­den, bevor sie in der EU in Ver­kehr gebracht wer­den dür­fen. Eben­so gel­ten höhe­re Anfor­de­run­gen an die Doku­men­ta­ti­on und die Infor­ma­ti­on gegen­über den Nut­zern, und es muss eine “mensch­li­che Auf­sicht” sicher­ge­stellt wer­den – ein wei­te­res Bei­spiel einer zwin­gen­den mensch­li­chen Kom­po­nen­te bei auto­ma­ti­sier­ten Syste­men, die an die Betrof­fe­nen­rech­te bei auto­ma­ti­sier­ten Ein­zel­ent­schei­dun­gen erin­nert. Sämt­li­che Mit­glie­der der Wert­schöp­fungs­ket­te – Anbie­ter, Ein­füh­rer, Händ­ler und Nut­zer – von Hoch­ri­si­ko-Syste­men haben eben­falls beson­de­re Pflich­ten, auch Marktbeobachtungsvorgaben.

Behör­den und Sanktionen

Zudem wer­den Behör­den geschaffen:

  • Mit­glied­staa­ten müs­sen zustän­di­ge natio­na­le Behör­den ein­rich­ten oder bestehen­de Behör­den benennen;
  • ein Euro­päi­scher Aus­schuss für künst­li­che Intel­li­genz geschaf­fen, der die Kom­mis­si­on der EU berät.

Abge­si­chert wird die Ein­hal­tung durch Sank­tio­nen, die im Extrem­fall bis zu 6% des Umsat­zes oder EUR 30 Mio. gehen können.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter