EDÖB: “Gel­ten­des Daten­schutz­ge­setz ist auf KI direkt anwendbar”

Der EDÖB hat in einer Mit­tei­lung – viel­leicht aus Anlass der Exe­cu­ti­ve Order von Prä­si­dent Biden – dar­auf hin­ge­wie­sen, dass das Daten­schutz­recht auf KI-gestütz­te Bear­bei­tun­gen von Per­so­nen­da­ten anwend­bar ist. Er hat sich bereits im April zum The­ma geäu­ssert, nun etwas ausführlicher.

Hin­wei­se des EDÖB

Der EDÖB weist zunächst dar­auf hin, dass die Bun­des­ver­wal­tung in der Schweiz – wohl bis Ende 2024 – ver­schie­de­ne Ansät­ze für die Regu­lie­rung von KI eva­lu­iert (s. auch die Ant­wort zum Postu­lat Dobler). Ange­sichts des Tem­pos der Ent­wick­lun­gen im Bereich AI weist der EDÖB aber natür­lich zu Recht dar­auf hin, dass das Daten­schutz­recht auch für die Bear­bei­tung von Per­so­nen­da­ten gilt, wenn die Bear­bei­tung AI-gestützt erfolgt. Das Daten­schutz­recht kön­ne daher für Her­stel­ler, Anbie­ter und Ver­wen­der ent­spre­chen­der Appli­ka­tio­nen gelten.

Der EDÖB betont vor allem das Anlie­gen der Trans­pa­renz (wie schon bei der frü­he­ren Mit­tei­lung). Es seien

  • der Zweck
  • die Funk­ti­ons­wei­se und
  • die Daten­quel­len

der auf KI beru­hen­den Bear­bei­tun­gen trans­pa­rent zu machen. Die­ser Anspruch sei “eng ver­bun­den” mit dem Recht, einer “auto­ma­ti­schen Daten­be­ar­bei­tung zu wider­spre­chen” und mit den Betrof­fe­nen­rech­ten bei auto­ma­ti­sier­ten Einzelentscheidungen.

Bei intel­li­gen­ten Sprach­mo­del­le, die mit Betrof­fe­nen kom­mu­ni­zie­ren, sol­len letz­te­re das Recht haben zu erfahren,

ob sie mit einer Maschi­ne spre­chen oder kor­re­spon­die­ren und ob die von ihnen ein­ge­ge­be­nen Daten zur Ver­bes­se­rung der selbst­ler­nen­den Pro­gram­me oder zu wei­te­ren Zwecken wei­ter­be­ar­bei­tet werden.

Auch bei der Ver­wen­dung von Pro­gram­men, die Deep Fakes (die “Ver­fäl­schung von Gesich­tern, Bil­dern oder Sprach­nach­rich­ten”) von iden­ti­fi­zier­ba­ren Per­so­nen ermöglichen,

muss stets deut­lich erkenn­bar sein, soweit sie sich im kon­kre­ten Fall nicht auf­grund straf­recht­li­cher Ver­bo­te als gänz­lich unrecht­mä­ssig erweist.

Es kann zudem eine DSFA erfor­der­lich sein. Bestimm­te Anwen­dun­gen sei­en sodann ver­bo­ten, näm­lich dann, wenn sie

gera­de­zu auf eine Aus­höh­lung der vom DSG geschütz­ten Pri­vat­sphä­re und infor­ma­tio­nel­len Selbst­be­stim­mung abzie­len […]. Gemeint sind ins­be­son­de­re KI-basier­te Daten­be­ar­bei­tun­gen, die in auto­ri­tär regier­ten Staa­ten zu beob­ach­ten sind, wie die flä­chen­decken­de Gesichts­er­ken­nung in Echt­zeit oder die umfas­sen­de Obser­va­ti­on und Bewer­tung der Lebens­füh­rung, das sog. «Social Scoring».

Anmer­kun­gen

Der EDÖB ver­weist ein­gangs auf die genann­te Exe­cu­ti­ve Order von Prä­si­dent Biden, ist in der Sache aber sicher vom AI Act inspi­riert. So ver­langt der AI Act in Art. 52 Abs. 1 eine Grund­trans­pa­renz:

Die Anbie­ter stel­len sicher, dass KI-Syste­me, die für die Inter­ak­ti­on mit natür­li­chen Per­so­nen bestimmt sind, so kon­zi­piert und ent­wickelt wer­den, dass natür­li­chen Per­so­nen mit­ge­teilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist auf­grund der Umstän­de und des Kon­texts der Nut­zung offen­sicht­lich. Die­se Vor­ga­be gilt nicht für gesetz­lich zur Auf­deckung, Ver­hü­tung, Ermitt­lung und Ver­fol­gung von Straf­ta­ten zuge­las­se­ne KI-Syste­me, es sei denn, die­se Syste­me ste­hen der Öffent­lich­keit zur Anzei­ge einer Straf­tat zur Verfügung.

Bei Deep Fakes ist eben­falls zu infor­mie­ren (Art. 532 Abs. 3):

Nut­zer eines KI-Systems, das Bild‑, Ton- oder Video­in­hal­te erzeugt oder mani­pu­liert, die wirk­li­chen Per­so­nen, Gegen­stän­den, Orten oder ande­ren Ein­rich­tun­gen oder Ereig­nis­sen merk­lich ähneln und einer Per­son fälsch­li­cher­wei­se als echt oder wahr­haf­tig erschei­nen wür­den („Deepf­ake“), müs­sen offen­le­gen, dass die Inhal­te künst­lich erzeugt oder mani­pu­liert wurden.

Art. 5 ver­bie­tet sodann bestimm­te Prak­ti­ken, etwa zur unter­schwel­li­gen Beein­flus­sung, beim Aus­nut­zen beson­de­rer Schwä­che, fer­ner bestimm­te Dis­kri­mi­nie­run­gen oder bio­me­tri­scher Echtzeit-Fernidentifizierungssysteme.

Die­se Anleh­nung ist inter­es­sant, weil sich bei der all­ge­mei­nen Rat­lo­sig­keit zum Umgang mit AI-Anwen­dun­gen bis­her kein über­le­ge­ner Regu­lie­rungs­an­satz her­aus­kri­stal­li­sie­ren konn­te. Der risi­ko­ba­sier­te Ansatz des AI Act hat aber eini­ges für sich. Das Bestre­ben, die Anbie­ter, Ein­füh­rer, Händ­ler und Nut­zer von AI-Anwen­dun­gen in die Pflicht zu neh­men und ihr Risi­ko­ma­nage­ment zu regu­lie­ren, ist durch­aus nahe­lie­gend. Es gibt auch die Mei­nung, man sol­le die Ent­wick­lung zunächst abwar­ten und Pro­ble­me adres­sie­ren, wenn sie sich mani­fe­stiert haben, aber das erscheint als etwas blau­äu­gig – nicht alle Pro­ble­me sind rever­si­bel, beson­ders nicht die gröss­ten. Eine ver­schärf­te Haf­tung im Bereich AI wird postu­liert und ist ein­leuch­tend, führt aber auch nur zu einer Ver­mö­gens­ver­la­ge­rung. Es scheint jeden­falls so, als wür­de der EDÖB eine Über­nah­me der Grund­sät­ze des AI Act anti­zi­pie­ren. Auch weil AI Act eine gewis­se extra­ter­ri­to­ria­le Anwend­bar­keit hat (dazu hier), ist eine sol­che Über­nah­me durch­aus im Bereich des Wahrscheinlichen.

Der EDÖB kann ange­sichts der dra­ma­tisch schnel­len Ent­wick­lung nicht pas­siv blei­ben. Er hat aber kein ande­res Instru­men­ta­ri­um als den Daten­schutz (beson­ders, nach­dem das Bun­des­ver­wal­tungs­ge­richt im Hels­a­na-Ent­scheid die mass­geb­li­che Berück­sich­ti­gung von Anlie­gen ausser­halb des Daten­schut­zes wie etwa jenes des Kon­su­men­ten­schut­zes abge­lehnt hat). Dass er des­halb gewis­se Mini­mal-Grund­sät­ze postu­liert und sie daten­schutz­recht­lich begrün­det, liegt auf der Hand.

Das heisst aller­dings nicht, dass die­se Grund­sät­ze de lege lata klar begrün­det sind. Das Anlie­gen der Trans­pa­renz etwa klingt in Art. 6 Abs. 2 und 3 DSG an und gilt natür­lich als Grund­satz. Die­ser Grund­satz ver­langt aber eigent­lich nicht, über Moda­li­tä­ten einer Daten­be­ar­bei­tung zu infor­mie­ren, es sei denn, sie sei beson­ders risi­ko­be­haf­tet. Das kann bei AI-Anwen­dun­gen der Fall sein, muss es aber nicht. Auch bei der Infor­ma­ti­ons­pflicht ver­langt das Gesetz an sich kei­ne Infor­ma­ti­on über bestimm­te Bear­bei­tungs­ar­ten. Man kann eine sol­che Trans­pa­renz­pflicht daher wohl nur aus dem Grund­satz von Treu und Glau­ben ablei­ten, der ja fast alles begrün­den kann, wenn er nicht gleich – syste­ma­tisch frag­wür­dig – zum Aus­le­gungs­mas­stab des Trans­pa­renz­grund­sat­zes wird.

Des­sen unge­ach­tet ist es auch aus Repu­ta­ti­ons­grün­den sinn­voll, AI-Anwen­dun­gen zu dekla­rie­ren, wenn sie Per­so­nen­da­ten bear­bei­ten. Das gilt sicher bei Chat­bots und ähn­li­chen Anwen­dun­gen. Bei Machi­ne Lear­ning-Anwen­dun­gen an sol­chen muss das aller­dings nicht der Fall sein. Wenn Ver­trä­ge auto­ma­ti­siert mit ML kate­go­ri­siert wer­den, E‑Mail-Benach­rich­ti­gungs­sy­ste­me den Zeit­punkt des E‑Mail-Ver­sands auto­ma­ti­siert bestim­men, Über­set­zungs­pro­gram­me trai­niert wer­den usw., kommt es zwar oft zu einer Bear­bei­tung von Per­so­nen­da­ten. Sie – d.h. die Bear­bei­tung durch ML bzw. AI – ist hier aber inzi­dent. Anders als bei Anwen­dun­gen, die eigens auf die Bear­bei­tung von Per­so­nen­da­ten mit AI-Anwen­dun­gen zie­len, drängt sich Trans­pa­renz hier viel weni­ger auf.

Mit die­ser Unter­schei­dung oder die­sem Vor­be­halt kann dem Hin­weis des EDÖB durch­aus gefolgt wer­den. Offen bleibt dabei aber, in wel­cher Detail­tie­fe Anga­ben über die Funk­ti­ons­wei­se einer AI-Anwen­dung zu machen sind. Der blo­sse Hin­weis, dass eine AI zum Zweck X ein­ge­setzt wird, dürf­te oft genü­gen. Ver­wen­det ein Dienst­lei­ster Per­so­nen­da­ten für Trai­nings­zwecke auch zugun­sten ande­rer Kun­den, also nicht nur als Auf­trags­be­ar­bei­ter, ist ein ent­spre­chen­der Hin­weis bspw. in einer Daten­schutz­er­klä­rung eben­falls sinn­voll. Zur Trans­pa­renz vgl. auch S. 10 des “Ver­wen­dung gene­ra­ti­ver KI – Leit­fa­den zum Daten­schutz­ge­setz” des VUD.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter