Takea­ways (AI):
  • Das LfDI Baden-Würt­tem­berg schliesst sich ande­ren euro­päi­schen Behör­den an, die ChatGPT kri­tisch prü­fen und ggf. untersagen.
  • Ope­nAI wur­de zur Stel­lung­nah­me auf­ge­for­dert; das LfDI strebt ein­heit­li­che Pro­zes­se im Euro­päi­schen Daten­schutz-Aus­schuss EDSA an.
  • Unter­schied zwi­schen Gene­ral Pur­po­se AI und spe­zia­li­sier­ten Anwen­dun­gen sorgt für Debat­ten über den AI Act.
  • Behör­den wie der ita­lie­ni­sche Garan­te unter­su­chen den Ein­satz von ChatGPT und äußern Beden­ken hin­sicht­lich Datenverarbeitung.

Das LfDI Baden-Würt­tem­berg schliesst sich den wei­te­ren Behör­den Euro­pas an, die ChatGPT kri­tisch begut­ach­ten, wenn nicht unter­sa­gen. Einer Medi­en­mit­tei­lung vom 24. April 2023 zufol­ge hat das LfDI Ope­nAI zu einer Stel­lung­nah­me auf­ge­for­dert. Zudem wir­ke man im Euro­päi­schen Daten­schutz-Aus­schuss EDSA auf ein­heit­li­ches euro­päi­sches Vor­ge­hen hin.

Im Zen­trum scheint die Fra­ge zu ste­hen, wie Kun­den von Ope­nAI – d.h. die Ver­ant­wort­li­chen; Ope­nAI bie­tet einen ADV an – wis­sen kön­nen, wel­che Daten wie und zu wel­chem Zweck ver­ar­bei­tet wer­den, wie die ange­mes­se­nen tech­ni­schen und orga­ni­sa­to­ri­schen Mass­nah­men getrof­fen und geprüft wer­den kön­nen, wie beson­ders schüt­zens­wer­te Daten beson­ders geschützt sind und wie die Betrof­fe­nen­rech­te gewahrt wer­den kön­nen. Wei­te­re Hin­wei­se zu daten­schutz­recht­li­chen Pain Points fin­den sich im letz­ten Tätig­keits­be­richt des LfDI, auf den er in der Medi­en­mit­tei­lung verweist.

Bis­her haben sich bereits eini­ge Behör­den mit dem The­ma KI bzw. ChatGPT bzw. Lar­ge Lan­guage Models beschäf­tigt, z.B.

  • der Euro­päi­sche Daten­schutz-Aus­schuss EDSA, der ent­schie­den hat, eine Task Force für ein abge­stimm­tes Vor­ge­hen der Euro­päi­schen Daten­schutz­be­hör­den ein­zu­set­zen (am 13. April 2023),
  • der HBDI Hes­sen (13. April 2023), der die Beden­ken des ita­lie­ni­sche Garan­te teilt,
  • das Office of the Pri­va­cy Com­mis­sio­ner Kana­das (4. April 2023), das eine Unter­su­chung führt,
  • der EDÖB, der Hin­wei­se zum Ein­satz von ChatGPT und ähn­li­chen Anwen­dun­gen ver­öf­fent­licht hat (am 4. April 2023).
  • der ita­lie­ni­sche Garan­te, der den Ein­satz von ChatGPT nicht nur unter­sucht, son­dern man­gels Infor­ma­ti­on und Rechts­grund­la­ge, aus Sor­ge um Daten von Kin­dern und auf­grund der Unzu­ver­läs­sig­keit der gene­rier­ten Aus­sa­gen von ChatGPT unter­sagt hat (am 30. März 2023), bevor er nach einem Tref­fen mit Ver­tre­tern von ChatGPT am 6. April 2023 ent­schie­den hat (am 12. April 2023), das Ver­bot per 30. April 2023 wie­der auf­zu­he­ben, unter der Vor­aus­set­zung, dass ChatGPT bis dahin bestimm­te Vor­ga­ben umsetzt, um den genann­ten Beden­ken zu entsprechen;
  • das UK Natio­nal Cyber Secu­ri­ty Cent­re in einer Stel­lung­nah­me (13. März 2023).

Zugleich schrei­tet die Regu­lie­rung im Bereich AI vor­an. Für den 26. April 2023 wird die Eini­gung des Euro­päi­schen Par­la­ments erwar­tet, der Tri­log dazu könn­te ent­spre­chend beginnen.

Aller­dings scheint der Fort­schritt u.a. von ChatGPT eine recht grund­sätz­li­che Debat­te aus­zu­lö­sen, die mit der Unter­schei­dung zusam­men­hängt zwischen

  • Gene­ral Pur­po­se AI (GPAI) bzw. Foun­da­ti­on AI bzw. Foun­da­ti­on Models einer­seits zu tun hat, also mit AI-Syste­men, die in der Lage sind, eine brei­te Palet­te von Auf­ga­ben zu erfül­len und über ent­spre­chen­de Anpas­sungs­fä­hig­kei­ten ver­fü­gen – ChatGPT fällt in die­se Kate­go­rie –, und
  • ande­rer­seits spe­zia­li­sier­ten Anwen­dun­gen für ein­zel­ne Auf­ga­ben, die weni­ger “intel­li­gent” sind (“Nar­row Intel­li­gence”; die Ver­wen­dung des Worts “Intel­li­genz” für KI wäre einen eige­nen Bei­trag wert, aber es drückt ein Ver­ständ­nis des Men­schen aus, das ihn min­de­stens so sehr der Maschi­ne annährt wie jene ihm).

Ein Infor­ma­ti­ons­blatt zuhan­den des Euro­päi­schen Par­la­ments vom März 2023 ent­hält hier­zu wei­te­re Anga­ben. Jeden­falls besteht ein gewis­ser Druck, im AI Act auch GPAI zu regeln, die im Ent­wurf der Kom­mis­si­on nicht oder nur unzu­rei­chend ange­spro­chen wäre (je nach Aus­le­gung des Begriffs des “Systems der künst­li­chen Intel­li­genz” nach Art. 3 Nr. 1 und Anhang I der Ver­ord­nung – sie­he dazu die ent­spre­chen­den Emp­feh­lun­gen des future of life institute).

AI-generierte Takeaways können falsch sein.