EDSA: Zwi­schen­be­richt der Task Force zu den OpenAI-Untersuchungen

Meh­re­re euro­päi­sche Daten­schutz­auf­sichts­be­hör­den (“SAs”) hat­ten Unter­su­chun­gen gegen Ope­nAI als Ver­ant­wort­li­cher für die Bear­bei­tung von Per­so­nen­da­ten im Zusam­men­hang mit ChatGPT ein­ge­lei­tet. Weil Ope­nAI bis Febru­ar 2024 kei­ne Nie­der­las­sung in der EU hat­te und der One-Stop-Shop-Mecha­nis­mus (OSS) daher nicht grei­fen konn­te, hat­te der EDSA im April 2023 eine Taskforce ein­ge­rich­tet, um Zusam­men­ar­beit und Infor­ma­ti­ons­aus­tausch der betei­lig­ten SAs sicherzustellen.

Die Unter­su­chun­gen sind noch ver­trau­lich, aber der EDSA hat auf Basis öffent­li­cher Infor­ma­tio­nen einen kur­zen Zwi­schen­be­richt ver­öf­fent­licht (Report of the work under­ta­ken by the ChatGPT Taskforce, datiert vom 23. Mai 2024). Der Bericht steht im Zusam­men­hang mit dem Vor­satz des EDSA (gemäss der Stra­te­gie 2024 – 2027), das Zusam­men­spiel zwi­schen der DSGVO und ins­be­son­de­re auch dem AI Act zu begleiten.

Ein­gangs betont der EDSA, dass der Daten­schutz im Rah­men von LLMs nicht an tech­ni­schen Schwie­rig­kei­ten schei­tern darf:

None­thel­ess, in line with the prin­ci­ple of accoun­ta­bi­li­ty […], con­trol­lers pro­ce­s­sing per­so­nal data in the con­text of LLMs shall take all neces­sa­ry steps to ensu­re full com­pli­ance with the requi­re­ments of the GDPR. In par­ti­cu­lar, tech­ni­cal impos­si­bi­li­ty can­not be invo­ked to justi­fy non-com­pli­ance with the­se requi­re­ments, espe­ci­al­ly con­side­ring that the prin­ci­ple of data pro­tec­tion by design set out in Artic­le 25(1) GDPR shall be taken into account at the time of the deter­mi­na­ti­on of the means for pro­ce­s­sing and at the time of the pro­ce­s­sing itself.

Mit Bezug auf die lau­fen­den Unter­su­chun­gen ver­weist der EDSA auf den umfang­rei­chen Fra­gen­ka­ta­log, den die SAs Ope­nAI vor­ge­legt hat­ten. Er ist im Anhang des Berichts wie­der­ge­ge­ben und ent­hält Fra­gen in den fol­gen­den Berei­chen – wenig über­ra­schend die übli­chen Schwerpunkte:

  • Bear­bei­tungs­grund­sät­ze und ihre Einhaltung
  • DSFA und Risikomanagement
  • Recht­mä­ssig­keit der Ver­ar­bei­tun­gen für das Trai­ning, Tests und Vali­die­run­gen von ChatGPT
  • Gewähr­lei­stung der Betroffenenrechte
  • Über­mitt­lung in Drittstaaten
  • Bekannt­ga­be von Daten an Dritte

Inter­es­san­ter sind vor­läu­fi­ge Erkennt­nis­se des EDSA. Der EDSA ver­schliesst nicht die Augen vor den Sach­zwän­gen, denen Ope­nAI unter­liegt, und will das Modell nicht gera­de ver­bie­ten, aber er erwar­tet wei­te­re Anstren­gun­gen von OpenAI.

Rechts­grund­la­ge

Bei der Bear­bei­tung der Recht­mä­ssig­keit soll­ten Bear­bei­tun­gen in Pha­sen auf­ge­teilt wer­den. Hier bie­te es sich an, zu unter­schei­den zwischen

  • der Beschaf­fung von Trainingsdaten
  • der Vor­be­rei­tung von Daten (pre-pro­ce­s­sing)
  • dem Trai­ning
  • Prompts und Out­put und schliesslich
  • dem wei­te­ren Trai­ning durch Prompts

Die Daten­be­schaf­fung aus dem Inter­net (Scra­ping) beruft sich Ope­nAI auf berech­tig­te Inter­es­sen (hier). Der EDSA gibt sich damit nicht zufrie­den – eine Inter­es­sen­ab­wä­gung muss detail­liert sein und auch Sicher­heits­mass­nah­men berück­sich­ti­gen. Bei beson­ders schüt­zens­wer­ten Per­so­nen­da­ten muss zudem eine Rechts­grund­la­ge nach Art. 9 DSGVO ein­schlä­gig sein. Dass Daten im Inter­net abgreif­bar sind, stel­le noch kein “offen­sicht­li­ches Öffent­lich­ma­chen” i.S.v. Art. 9 Abs. 2 lit. e DSGVO dar. Dass Ope­nAI nicht pro Ein­zel­da­tum eine Ana­ly­se durch­füh­ren kann, aner­kennt der EDSA; es lie­ge aber an Ope­nAI, Sicher­heits­mass­nah­men zu tref­fen, bspw. beson­ders schüt­zens­wer­te Per­so­nen­da­ten auszufiltern.

Beim Input, beim Out­put und beim Trai­ning beruft sich Ope­nAI eben­falls auch das berech­tig­te Inter­es­se. Hier legt der EDSA das Gewicht auf Trans­pa­renz, wenn Inputs (Prompts) für das Trai­ning ver­wen­det wer­den (ein Opt-Out-Recht bie­tet Ope­nAI an).

Fair­ness

Unter dem Titel der Fair­ness ver­langt der EDSA vor allem – und das ist eine inno­va­ti­ve Betrach­tungs­wei­se, die an die AGB-Kon­trol­le erin­nert –, dass Ope­nAI kei­ne Risi­ken auf die Betrof­fe­nen über­wälzt. Ope­nAI kön­ne des­halb nicht ein­fach in die AGB schrei­ben, dass die Nut­zer selbst für den Input ver­ant­wort­lich sind.

Man kann sich aber fra­gen, ob die Nut­zer von ChatGPT nicht eige­ne Ver­ant­wort­li­che sind, denen dann schon das Gesetz eine ent­spre­chen­de (Mit-)Verantwortung zuweist. Ope­nAI sei aber jeden­falls dann ver­ant­wort­lich, wenn Inputs “Teil des Modells” wer­den, d.h. wohl zu Trai­nings­zwecken ver­wen­det werden.

Ope­nAI hat hier aber offen­bar gewis­se Mass­nah­men getrof­fen, die nicht näher aus­ge­führt werden.

Trans­pa­renz

Grund­sätz­lich trifft Ope­nAI eine Infor­ma­ti­ons­pflicht beim Scra­ping. Weil das nicht umsetz­bar ist, könn­te die Aus­nah­me von Art. 14 Abs. 5 DSGVO grei­fen (wenn die Infor­ma­ti­on unmög­lich oder unver­hält­nis­mä­ssig auf­wen­dig ist).

Rich­tig­keit

Hier geht der EDSA zu Recht davon aus, dass er Out­put auf einer Wahr­schein­lich­keits­be­wer­tung beruht und ent­spre­chend nicht “rich­tig” ist oder sein will, und das, obwohl Betrof­fe­ne Out­puts wahr­schein­lich für bare Mün­ze neh­men. Ope­nAI müs­se aber klar(er) über die Natur der Out­puts und ihre Zuver­läs­sig­keit informieren:

In line with the prin­ci­ple of trans­pa­ren­cy pur­su­ant to Artic­le 5(1)(a) GDPR, it is of importance that pro­per infor­ma­ti­on on the pro­ba­bi­li­stic out­put crea­ti­on mecha­nisms and on their limi­t­ed level of relia­bi­li­ty is pro­vi­ded by the con­trol­ler, inclu­ding expli­cit refe­rence to the fact that the gene­ra­ted text, alt­hough syn­tac­ti­cal­ly cor­rect, may be bia­sed or made up. Alt­hough the mea­su­res taken in order to com­ply with the trans­pa­ren­cy prin­ci­ple are bene­fi­ci­al to avo­id mis­in­ter­pre­ta­ti­on of the out­put of ChatGPT, they are not suf­fi­ci­ent to com­ply with the data accu­ra­cy prin­ci­ple, as recal­led above.

Dazu steht ein Absatz in der Daten­schutz­er­klä­rung von Ope­nAI (“In man­chen Fäl­len sind die Wor­te, die als näch­stes erschei­nen, nicht die fak­tisch genaue­sten. Aus die­sem Grund soll­ten Sie sich nicht auf die fak­ti­sche Rich­tig­keit des Out­puts unse­rer Model­le ver­las­sen”), aber dem EDSA genügt dies nicht.

Betrof­fe­nen­rech­te

Dass die Erfül­lung der Betrof­fe­nen­rech­te (Aus­kunft, Berich­tung, Löschung usw.) im Kon­text von LLMs an Gren­zen stösst, ist dem EDSA klar. Er weist hier ledig­lich dar­auf hin, dass Ope­nAI den Nut­zern vor­schla­ge, statt eine Berich­ti­gung lie­ber eine Löschung zu ver­lan­gen, und dass der Grund­satz der Erleich­te­rung der Betrof­fen­rech­te und von Pri­va­cy by Design eine ste­ti­ge Ver­bes­se­rung verlange.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter