EU-Kom­mis­si­on: Leit­li­ni­en zum Begriff des AI-Systems

Behörde(n): 

Branche(n): 

Gesetze:

Tags:

Inhalt

Die EU-Kom­mis­si­on hat Leit­li­ni­en zum Begriff des AI-Systems (AIS) gut­ge­hei­ssen, wenn auch noch nicht for­mell ver­ab­schie­det (“Com­mis­si­on Gui­de­lines on the defi­ni­ti­on of an arti­fi­ci­al intel­li­gence system estab­lished by Regu­la­ti­on (EU) 2024/1689 (AI Act)”):

Die 12-sei­ti­gen Leit­li­ni­en – die auf die Leit­li­ni­en zu den ver­bo­te­nen Prak­ti­ken fol­gen – ver­su­chen, den im AI Act letzt­lich nicht defi­nier­ten, son­dern nur illu­strier­ten Begriff des AIS zu klä­ren. Gene­ral-Pur­po­se AI Models (GPAIM) wer­den nicht adressiert.

Nach Art. 3(1) AI Act ist ein AIS ein maschi­nen­ge­stütz­tes System, das mit “unter­schied­li­chem Grad an Auto­no­mie betrie­ben” wer­den soll und nach sei­ner Ein­füh­rung Anpas­sungs­fä­hig­keit zei­gen kann (“may”), und das für expli­zi­te oder impli­zi­te Zie­le aus Ein­ga­ben ablei­tet, wie es Aus­ga­ben wie Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Ent­schei­dun­gen gene­rie­ren kann, wobei die­se Aus­ga­ben “phy­si­sche oder vir­tu­el­le Umge­bun­gen beein­flus­sen können”.

Laut der Kom­mis­si­on umfasst die­se Defi­ni­ti­on sie­ben Ele­men­te, die aller­dings nicht alle zwin­gend vor­han­den sein müs­sen und die sich überschneiden:

  1. Maschi­nen­ge­stütz­tes System
  2. Gra­du­el­le Autonomie
  3. Anpas­sungs­fä­hig­keit
  4. Auf­ga­ben­ori­en­tie­rung des Systems (“Zie­le”)
  5. Infe­renz
  6. Out­put: Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Entscheidungen
  7. Ein­fluss auf die Umgebung

Dass die Defi­ni­ti­on in Art. 3 (1) AI Act kei­ne kla­re Abgren­zung erlaubt, haben wir in unse­ren FAQ zum AI Act dar­zu­le­gen ver­sucht; neu ist die­se Erkennt­nis aller­dings nicht. Die EU-Kom­mis­si­on, die nach Art. 96 AI Act Leit­li­ni­en “für die prak­ti­sche Durch­füh­rung” des AI Act erlas­sen soll, ver­sucht des­halb, den Begriff nach­zu­schär­fen. Das gelingt ihr aller­dings höch­stens ansatz­wei­se mit einer Art Baga­tell­schwel­le, die aller­dings wenig greif­bar ist. Das Schei­tern hält die Kom­mis­si­on in der Zusam­men­fas­sung des Leit­fa­dens mit fru­strie­ren­der Deut­lich­keit fest:

No auto­ma­tic deter­mi­na­ti­on or exhaus­ti­ve lists of systems that eit­her fall within or out­side the defi­ni­ti­on of an AI system are possible.

(1) Maschi­nen-gestütz­tes System: jeder Computer

Laut Kom­mis­si­on ist damit ein System gemeint, das auf Hard­ware und Soft­ware läuft – also ein Computer.

(2) Auto­no­mie: “Some rea­sonable degree of independence”

Die Auto­no­mie des Systems ist Kern der Defi­ni­ti­on. Wenig hilf­reich ist der Hin­weis in Art. 3(1) AI Act, dass es Gra­de an Auto­no­mie gibt – im Gegen­teil, damit wür­de an sich auch eine Auto­no­mie von 1% erfasst. Nach ErwG 12 geht es aber immer­hin um eine gewis­se Unab­hän­gig­keit von mensch­li­chem Ein­fluss.

Die Kom­mis­si­on stellt klar, dass das Kri­te­ri­um der Auto­no­mie und der Ablei­tung von Out­put zusam­men­hän­gen, weil sich die Auto­no­mie auf die­se Ablei­tung bezieht. Ent­spre­chend ist rich­ti­ger­wei­se von einem und nicht zwei Kri­te­ri­en aus­zu­ge­hen, aber klar wird dies bei der Kom­mis­si­on nicht.

Wich­ti­ger ist die Fra­ge, wie die Auto­no­mie zu bestim­men ist und wel­cher Grad not­wen­dig ist. Klar ist, dass ein System kein AIS ist, wenn es voll­stän­dig von einem Men­schen beherrscht ist:

…exclu­des systems that are desi­gned to ope­ra­te sole­ly with full manu­al human invol­vement and inter­ven­ti­on. Human invol­vement and human inter­ven­ti­on can be eit­her direct, e.g. through manu­al con­trols, or indi­rect, e.g. though auto­ma­ted systems-based con­trols which allow humans to dele­ga­te or super­vi­se system operations.

Wel­che Auto­no­mie erfor­der­lich ist, beant­wor­tet die Kom­mis­si­on an die­ser Stel­le nicht; in der Sache kommt sie auf die­sel­be Fra­ge aber bei der Infe­renz zurück (s. unten):

All systems that are desi­gned to ope­ra­te with some rea­sonable degree of inde­pen­dence of actions ful­fil the con­di­ti­on of auto­no­my in the defi­ni­ti­on of an AI system.

(3) Anpas­sungs­fä­hig­keit: nicht erforderlich

Anpas­sungs­fä­hig­keit bezieht sich nach ErwG 12 auf eine Lern­fä­hig­keit, also eine Anpas­sung an die Umge­bung, die den Out­put ändern kann. So oder so – Bestand­teil der Defi­ni­ti­on ist die Anpas­sungs­fä­hig­keit nicht, weil es ein Kann- und kein Muss-Kri­te­ri­um ist:

The use of the term ‘may’ in rela­ti­on to this ele­ment of the defi­ni­ti­on indi­ca­tes that a system may, but does not neces­s­a­ri­ly have to, pos­sess adap­ti­ve­ness or self-lear­ning capa­bi­li­ties after deployment to con­sti­tu­te an AI system. Accor­din­gly, a system’s abili­ty to auto­ma­ti­cal­ly learn […] is a facul­ta­ti­ve and thus not a decisi­ve con­di­ti­on […].

(4) Auf­ga­ben­ori­en­tie­rung

Ein AIS muss aus dem Input einen Out­put gene­rie­ren, und zwar “für expli­zi­te oder impli­zi­te Zie­le”. Die Kom­mis­si­on ver­steht das Ziel wohl eher als Illu­stra­ti­on und stellt nur klar, was unter einem Ziel in die­sem Sin­ne zu ver­ste­hen ist

Expli­cit objec­ti­ves refer to cle­ar­ly sta­ted goals that are direct­ly encoded by the deve­lo­per into the system. For exam­p­le, they may be spe­ci­fi­ed as the opti­mi­sa­ti­on of some cost func­tion, a pro­ba­bi­li­ty, or a cumu­la­ti­ve reward.

Impli­cit objec­ti­ves refer to goals that are not expli­ci­t­ly sta­ted but may be dedu­ced from the beha­viour or under­ly­ing assump­ti­ons of the system. The­se objec­ti­ves may ari­se from the trai­ning data or from the inter­ac­tion of the AI system with its environment.

Nicht das­sel­be ist der “Ver­wen­dungs­zweck” (“inten­ded use”), den Art. 3(12) AI Act als die vom Pro­vi­der vor­ge­se­he­ne Ver­wen­dung definiert.

(5) Ablei­tung von Out­put: Bagatellschwelle (!)

Hier sieht die Kom­mis­si­on offen­bar die wesent­li­che Abgren­zung beim AIS, und wie erwähnt kann man die­ses Ele­ment zusam­men mit der Auto­no­mie lesen.

Bei der Ablei­tung – Infe­renz – geht es der Kom­mis­si­on zufol­ge nicht allein um eine Ablei­tung von Out­put, son­dern viel­mehr um das Design des AIS – es muss so gebaut sein, dass es tech­nisch in die Lage ver­setzt wird, Out­put abzuleiten:

The terms ‘infer how to’, used in Artic­le 3(1) and cla­ri­fi­ed in reci­tal 12 AI Act, is broa­der than, and not limi­t­ed only to, a nar­row under­stan­ding of the con­cept of infe­rence as an abili­ty of a system to deri­ve out­puts from given inputs, and thus infer the result. Accor­din­gly, the for­mu­la­ti­on used in Artic­le 3(1) AI Act, i.e. ‘infers, how to gene­ra­te out­puts’, should be under­s­tood as refer­ring to the buil­ding pha­se, wher­eby a system deri­ves out­puts through AI tech­ni­ques enab­ling inferencing.

[…]

Focu­sing spe­ci­fi­cal­ly on the buil­ding pha­se of the AI system, reci­tal 12 AI Act fur­ther cla­ri­fi­es that ‘[t]he tech­ni­ques that enable infe­rence while buil­ding an AI system include
[…].

This cla­ri­fi­ca­ti­on expli­ci­t­ly under­lines that the con­cept of ‘infe­rence’ should be under­s­tood in a broa­der sen­se as encom­pas­sing the ‘buil­ding pha­se’ of the AI system.
[…]

Auf die­ser Basis und jener von ErwG 12 schaut die Kom­mis­si­on genau­er auf ent­spre­chen­de Technologien:

  • Machi­ne Lear­ning (ML) als Oberbegriff;
  • Super­vi­sed Lear­ning: Das System lernt Muster aus anno­tier­ten Daten zu erken­nen und zu ver­all­ge­mei­nern (Bsp.: Spam­fil­ter, Klas­si­fi­zie­rung von Bil­dern, Betrugserkennung);
  • Unsu­per­vi­sed Lear­ning: Das System lernt, in nicht-anno­tier­ten Daten Muster zu erken­nen (Bsp.: Erfor­schung neu­er Wirk­stof­fe in der Pharma;
  • Self-super­vi­sed Lear­ning: Ein Anwen­dungs­fall des nicht-über­wach­ten Ler­nens, bei dem das System selbst Anno­ta­tio­nen erstellt oder Zie­le defi­niert (Bsp.: Bil­der­ken­nung, LLMs);
  • Rein­force­ment Lear­ning: Ler­nen durch Erfah­rung über eine Beloh­nungs­funk­ti­on (Bsp.: ein Robo­ter lernt, Gegen­stän­de zu ergrei­fen; Emp­feh­lungs­funk­tio­nen in Such­ma­schi­nen; auto­no­mes Fahren);
  • Deep Lear­ning: Ler­nen mit neu­ro­na­len Netz­wer­ken i.d.R. auf Basis gro­sser Datenmengen;
  • Logic- and know­ledge-based approa­ches: Deduk­ti­ve oder induk­ti­ve Ablei­tung aus kodier­tem Wis­sen über Logik, defi­nier­te Regeln oder Onto­lo­gien (Bsp.: Klas­si­sche Sprach­mo­del­le auf Basis von Gram­ma­tik und Seman­tik, frü­he Exper­ten­sy­ste­me zur medi­zi­ni­schen Diagnostik).

Was ist also kein AIS? ErwG 12:

… the defi­ni­ti­on should be based on key cha­rac­te­ri­stics of AI systems that distin­gu­ish AI systems from simp­ler tra­di­tio­nal soft­ware systems or pro­gramming approa­ches and should not cover systems that are based on the rules defi­ned sole­ly by natu­ral per­sons to auto­ma­ti­cal­ly exe­cu­te operations.

Für die Kom­mis­si­on – und das ist der eigent­li­che Punkt in den Leit­li­ni­en – gibt es Syste­me, die zu einer gewis­sen Infe­renz in der Lage sind, aber kein AIS dar­stel­len:

Some systems have the capa­ci­ty to infer in a nar­row man­ner but may nevert­hel­ess fall out­side of the scope of the AI system defi­ni­ti­on becau­se of their limi­t­ed capa­ci­ty to ana­ly­se pat­terns and adjust auto­no­mously their output.

Das wider­spricht zwar wohl ErwG 12, ist aber will­kom­men, weil AIS von ande­ren Syste­men nur über quan­ti­ta­ti­ve Kri­te­ri­en sinn­voll unter­schie­den wer­den kön­nen. Zu den aus­ge­nom­me­nen Syste­men zählt die Kom­mis­si­on etwa die fol­gen­den – inter­es­sant ist vor allem die Kate­go­rie der ein­fa­chen Prognosemodelle:

  • Systems for impro­ving mathe­ma­ti­cal opti­mizati­on”: Das betrifft bspw. sta­ti­sti­sche Regres­si­ons­ana­ly­sen (→ FAQ AI Act):

    This is becau­se, while tho­se models have the capa­ci­ty to infer, they do not tran­s­cend ‘basic data processing’.

    Bei­spie­le sind etwa

    • Seit Jah­ren ein­ge­setz­te Ver­fah­ren (nach Ein­zel­fall, aber die lan­ge Ein­satz­dau­er sei ein Indiz), die etwa nur einen bekann­ten Algo­rith­mus durch Ver­schie­bung von Funk­tio­nen oder Para­me­tern opti­mie­ren, etwa “phy­sics-based systems”, die die Rechen­lei­stung z.B. für pro­gno­sti­sche Zwecke verbessern;
    • ein System, das den Ein­satz von Band­brei­te oder Res­sour­cen in einem satel­li­ten­ge­stütz­ten Kom­mu­ni­ka­ti­ons­sy­stem verbessert.

    Was dem­ge­gen­über erfasst blei­be, sind Syste­me, die “adjust­ments of their decis­i­on making models in an intel­li­gent way” erlau­ben. Wenn eine Pro­gno­se eines Akti­en­kur­ses also mit einem Regres­si­ons­mo­dell funk­tio­niert, das sich im Betrieb anpasst, ist es kei­ne rei­ne Regres­si­on und wäre erfasst. Das­sel­be müss­te für ein Emp­feh­lungs­sy­stem gel­ten, des­sen Para­me­ter sich anpas­sen können.

  • Basic data pro­ce­s­sing”: Eine vor­de­fi­nier­te Daten­be­ar­bei­tung, die Input nach fixen Regeln und ohne ML oder ande­rer Infe­renz bear­bei­tet (z.B. eine Fil­ter­funk­ti­on in einer Daten­bank) und nicht lernt oder denkt. Dazu gehö­ren auch bspw. Syste­me, die aus­schliess­lich Daten mit sta­ti­sti­schen Metho­den visua­li­sie­ren, oder eine sta­ti­sti­sche Aus­wer­tung von Umfragen.
  • Systems based on clas­si­cal heu­ri­stics”: Dabei geht es dar­um, für ein Pro­blem eine opti­ma­le Lösung zu fin­den, bspw. durch Regeln, Muster­er­ken­nung oder Tri­al-and-error. Im Unter­schied zu ML wen­den sol­che Syste­me defi­nier­te Regeln an, bspw. ein Schach­pro­gramm, das einen “Mini­max”-Algo­rith­mus ver­wen­det, und kön­nen sich weder anpas­sen noch kön­nen sie verallgemeinern.
  • Simp­le pre­dic­tion systems”: Das sind Syste­me, die mit ein­fa­cher Sta­ti­stik funk­tio­nie­ren, auch wenn sie tech­nisch gese­hen ML ein­set­zen. Sie sind kei­ne AIS “due to its per­for­mance” – wie auch immer das quan­ti­fi­ziert wer­den soll. Bei­spie­le sind 
    • Finanz­pro­gno­sen, die Akti­en­kur­se auf Basis des durch­schnitt­li­chen histo­ri­schen Prei­ses voraussagen,
    • eine Pro­gno­se der Tem­pe­ra­tur auf Basis histo­ri­scher Messwerte,
    • Schätz­sy­ste­me wie etwa ein Kun­den­dienst­sy­stem, das die Ant­wort­zeit schätzt, oder Verkaufsprognosen.

(6) Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Entscheidungen

Nach Art. 3(1) AI Act kön­nen AIS und Out­put wie “Vor­her­sa­gen, Inhal­te, Emp­feh­lun­gen oder Ent­schei­dun­gen “gene­rie­ren, die “phy­si­sche oder vir­tu­el­le Umge­bun­gen beein­flus­sen kön­nen”. Der Leit­fa­den spricht zunächst die Arten des Out­put an, ent­hält hier aber nicht mehr als all­ge­mei­ne Umschrei­bun­gen, die zum Ver­ständ­nis des Begriffs nichts beitragen.

Immer­hin: Ein Indiz für ein AIS kann wohl die Kom­ple­xi­tät des Out­put sein, aber die­ses Kri­te­ri­um dürf­te mit jenem der Auto­no­mie und Infe­renz zusammenfallen:

AI systems can gene­ral­ly gene­ra­te more nuan­ced out­puts than other systems, for exam­p­le, by lever­aging pat­terns lear­ned during trai­ning or by using expert-defi­ned rules to make decis­i­ons, offe­ring more sophi­sti­ca­ted rea­so­ning in struc­tu­red environments.

(7) Ein­fluss auf die Umgebung

Dass die Inhal­te die Umge­bung beein­flus­sen kön­nen, nennt die Kom­mis­si­on als wei­te­res Begriffs­ele­ment. Eine Abgren­zung zu ande­ren Syste­men ergibt sich dar­aus aller­dings nicht.