- Das LfDI Baden-Württemberg schliesst sich anderen europäischen Behörden an, die ChatGPT kritisch prüfen und ggf. untersagen.
- OpenAI wurde zur Stellungnahme aufgefordert; das LfDI strebt einheitliche Prozesse im Europäischen Datenschutz-Ausschuss EDSA an.
- Unterschied zwischen General Purpose AI und spezialisierten Anwendungen sorgt für Debatten über den AI Act.
- Behörden wie der italienische Garante untersuchen den Einsatz von ChatGPT und äußern Bedenken hinsichtlich Datenverarbeitung.
Das LfDI Baden-Württemberg schliesst sich den weiteren Behörden Europas an, die ChatGPT kritisch begutachten, wenn nicht untersagen. Einer Medienmitteilung vom 24. April 2023 zufolge hat das LfDI OpenAI zu einer Stellungnahme aufgefordert. Zudem wirke man im Europäischen Datenschutz-Ausschuss EDSA auf einheitliches europäisches Vorgehen hin.
Im Zentrum scheint die Frage zu stehen, wie Kunden von OpenAI – d.h. die Verantwortlichen; OpenAI bietet einen ADV an – wissen können, welche Daten wie und zu welchem Zweck verarbeitet werden, wie die angemessenen technischen und organisatorischen Massnahmen getroffen und geprüft werden können, wie besonders schützenswerte Daten besonders geschützt sind und wie die Betroffenenrechte gewahrt werden können. Weitere Hinweise zu datenschutzrechtlichen Pain Points finden sich im letzten Tätigkeitsbericht des LfDI, auf den er in der Medienmitteilung verweist.
Bisher haben sich bereits einige Behörden mit dem Thema KI bzw. ChatGPT bzw. Large Language Models beschäftigt, z.B.
- der Europäische Datenschutz-Ausschuss EDSA, der entschieden hat, eine Task Force für ein abgestimmtes Vorgehen der Europäischen Datenschutzbehörden einzusetzen (am 13. April 2023),
- der HBDI Hessen (13. April 2023), der die Bedenken des italienische Garante teilt,
- das Office of the Privacy Commissioner Kanadas (4. April 2023), das eine Untersuchung führt,
- der EDÖB, der Hinweise zum Einsatz von ChatGPT und ähnlichen Anwendungen veröffentlicht hat (am 4. April 2023).
- der italienische Garante, der den Einsatz von ChatGPT nicht nur untersucht, sondern mangels Information und Rechtsgrundlage, aus Sorge um Daten von Kindern und aufgrund der Unzuverlässigkeit der generierten Aussagen von ChatGPT untersagt hat (am 30. März 2023), bevor er nach einem Treffen mit Vertretern von ChatGPT am 6. April 2023 entschieden hat (am 12. April 2023), das Verbot per 30. April 2023 wieder aufzuheben, unter der Voraussetzung, dass ChatGPT bis dahin bestimmte Vorgaben umsetzt, um den genannten Bedenken zu entsprechen;
- das UK National Cyber Security Centre in einer Stellungnahme (13. März 2023).
Zugleich schreitet die Regulierung im Bereich AI voran. Für den 26. April 2023 wird die Einigung des Europäischen Parlaments erwartet, der Trilog dazu könnte entsprechend beginnen.
Allerdings scheint der Fortschritt u.a. von ChatGPT eine recht grundsätzliche Debatte auszulösen, die mit der Unterscheidung zusammenhängt zwischen
- General Purpose AI (GPAI) bzw. Foundation AI bzw. Foundation Models einerseits zu tun hat, also mit AI-Systemen, die in der Lage sind, eine breite Palette von Aufgaben zu erfüllen und über entsprechende Anpassungsfähigkeiten verfügen – ChatGPT fällt in diese Kategorie –, und
- andererseits spezialisierten Anwendungen für einzelne Aufgaben, die weniger “intelligent” sind (“Narrow Intelligence”; die Verwendung des Worts “Intelligenz” für KI wäre einen eigenen Beitrag wert, aber es drückt ein Verständnis des Menschen aus, das ihn mindestens so sehr der Maschine annährt wie jene ihm).
Ein Informationsblatt zuhanden des Europäischen Parlaments vom März 2023 enthält hierzu weitere Angaben. Jedenfalls besteht ein gewisser Druck, im AI Act auch GPAI zu regeln, die im Entwurf der Kommission nicht oder nur unzureichend angesprochen wäre (je nach Auslegung des Begriffs des “Systems der künstlichen Intelligenz” nach Art. 3 Nr. 1 und Anhang I der Verordnung – siehe dazu die entsprechenden Empfehlungen des future of life institute).