Der EDÖB hat in einer Mitteilung – vielleicht aus Anlass der Executive Order von Präsident Biden – darauf hingewiesen, dass das Datenschutzrecht auf KI-gestützte Bearbeitungen von Personendaten anwendbar ist. Er hat sich bereits im April zum Thema geäussert, nun etwas ausführlicher.
Hinweise des EDÖB
Der EDÖB weist zunächst darauf hin, dass die Bundesverwaltung in der Schweiz – wohl bis Ende 2024 – verschiedene Ansätze für die Regulierung von KI evaluiert (s. auch die Antwort zum Postulat Dobler). Angesichts des Tempos der Entwicklungen im Bereich AI weist der EDÖB aber natürlich zu Recht darauf hin, dass das Datenschutzrecht auch für die Bearbeitung von Personendaten gilt, wenn die Bearbeitung AI-gestützt erfolgt. Das Datenschutzrecht könne daher für Hersteller, Anbieter und Verwender entsprechender Applikationen gelten.
Der EDÖB betont vor allem das Anliegen der Transparenz (wie schon bei der früheren Mitteilung). Es seien
- der Zweck
- die Funktionsweise und
- die Datenquellen
der auf KI beruhenden Bearbeitungen transparent zu machen. Dieser Anspruch sei “eng verbunden” mit dem Recht, einer “automatischen Datenbearbeitung zu widersprechen” und mit den Betroffenenrechten bei automatisierten Einzelentscheidungen.
Bei intelligenten Sprachmodelle, die mit Betroffenen kommunizieren, sollen letztere das Recht haben zu erfahren,
ob sie mit einer Maschine sprechen oder korrespondieren und ob die von ihnen eingegebenen Daten zur Verbesserung der selbstlernenden Programme oder zu weiteren Zwecken weiterbearbeitet werden.
Auch bei der Verwendung von Programmen, die Deep Fakes (die “Verfälschung von Gesichtern, Bildern oder Sprachnachrichten”) von identifizierbaren Personen ermöglichen,
muss stets deutlich erkennbar sein, soweit sie sich im konkreten Fall nicht aufgrund strafrechtlicher Verbote als gänzlich unrechtmässig erweist.
Es kann zudem eine DSFA erforderlich sein. Bestimmte Anwendungen seien sodann verboten, nämlich dann, wenn sie
geradezu auf eine Aushöhlung der vom DSG geschützten Privatsphäre und informationellen Selbstbestimmung abzielen […]. Gemeint sind insbesondere KI-basierte Datenbearbeitungen, die in autoritär regierten Staaten zu beobachten sind, wie die flächendeckende Gesichtserkennung in Echtzeit oder die umfassende Observation und Bewertung der Lebensführung, das sog. «Social Scoring».
Anmerkungen
Der EDÖB verweist eingangs auf die genannte Executive Order von Präsident Biden, ist in der Sache aber sicher vom AI Act inspiriert. So verlangt der AI Act in Art. 52 Abs. 1 eine Grundtransparenz:
Die Anbieter stellen sicher, dass KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben, es sei denn, dies ist aufgrund der Umstände und des Kontexts der Nutzung offensichtlich. Diese Vorgabe gilt nicht für gesetzlich zur Aufdeckung, Verhütung, Ermittlung und Verfolgung von Straftaten zugelassene KI-Systeme, es sei denn, diese Systeme stehen der Öffentlichkeit zur Anzeige einer Straftat zur Verfügung.
Bei Deep Fakes ist ebenfalls zu informieren (Art. 532 Abs. 3):
Nutzer eines KI-Systems, das Bild‑, Ton- oder Videoinhalte erzeugt oder manipuliert, die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden („Deepfake“), müssen offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden.
Art. 5 verbietet sodann bestimmte Praktiken, etwa zur unterschwelligen Beeinflussung, beim Ausnutzen besonderer Schwäche, ferner bestimmte Diskriminierungen oder biometrischer Echtzeit-Fernidentifizierungssysteme.
Diese Anlehnung ist interessant, weil sich bei der allgemeinen Ratlosigkeit zum Umgang mit AI-Anwendungen bisher kein überlegener Regulierungsansatz herauskristallisieren konnte. Der risikobasierte Ansatz des AI Act hat aber einiges für sich. Das Bestreben, die Anbieter, Einführer, Händler und Nutzer von AI-Anwendungen in die Pflicht zu nehmen und ihr Risikomanagement zu regulieren, ist durchaus naheliegend. Es gibt auch die Meinung, man solle die Entwicklung zunächst abwarten und Probleme adressieren, wenn sie sich manifestiert haben, aber das erscheint als etwas blauäugig – nicht alle Probleme sind reversibel, besonders nicht die grössten. Eine verschärfte Haftung im Bereich AI wird postuliert und ist einleuchtend, führt aber auch nur zu einer Vermögensverlagerung. Es scheint jedenfalls so, als würde der EDÖB eine Übernahme der Grundsätze des AI Act antizipieren. Auch weil AI Act eine gewisse extraterritoriale Anwendbarkeit hat (dazu hier), ist eine solche Übernahme durchaus im Bereich des Wahrscheinlichen.
Der EDÖB kann angesichts der dramatisch schnellen Entwicklung nicht passiv bleiben. Er hat aber kein anderes Instrumentarium als den Datenschutz (besonders, nachdem das Bundesverwaltungsgericht im Helsana-Entscheid die massgebliche Berücksichtigung von Anliegen ausserhalb des Datenschutzes wie etwa jenes des Konsumentenschutzes abgelehnt hat). Dass er deshalb gewisse Minimal-Grundsätze postuliert und sie datenschutzrechtlich begründet, liegt auf der Hand.
Das heisst allerdings nicht, dass diese Grundsätze de lege lata klar begründet sind. Das Anliegen der Transparenz etwa klingt in Art. 6 Abs. 2 und 3 DSG an und gilt natürlich als Grundsatz. Dieser Grundsatz verlangt aber eigentlich nicht, über Modalitäten einer Datenbearbeitung zu informieren, es sei denn, sie sei besonders risikobehaftet. Das kann bei AI-Anwendungen der Fall sein, muss es aber nicht. Auch bei der Informationspflicht verlangt das Gesetz an sich keine Information über bestimmte Bearbeitungsarten. Man kann eine solche Transparenzpflicht daher wohl nur aus dem Grundsatz von Treu und Glauben ableiten, der ja fast alles begründen kann, wenn er nicht gleich – systematisch fragwürdig – zum Auslegungsmasstab des Transparenzgrundsatzes wird.
Dessen ungeachtet ist es auch aus Reputationsgründen sinnvoll, AI-Anwendungen zu deklarieren, wenn sie Personendaten bearbeiten. Das gilt sicher bei Chatbots und ähnlichen Anwendungen. Bei Machine Learning-Anwendungen an solchen muss das allerdings nicht der Fall sein. Wenn Verträge automatisiert mit ML kategorisiert werden, E‑Mail-Benachrichtigungssysteme den Zeitpunkt des E‑Mail-Versands automatisiert bestimmen, Übersetzungsprogramme trainiert werden usw., kommt es zwar oft zu einer Bearbeitung von Personendaten. Sie – d.h. die Bearbeitung durch ML bzw. AI – ist hier aber inzident. Anders als bei Anwendungen, die eigens auf die Bearbeitung von Personendaten mit AI-Anwendungen zielen, drängt sich Transparenz hier viel weniger auf.
Mit dieser Unterscheidung oder diesem Vorbehalt kann dem Hinweis des EDÖB durchaus gefolgt werden. Offen bleibt dabei aber, in welcher Detailtiefe Angaben über die Funktionsweise einer AI-Anwendung zu machen sind. Der blosse Hinweis, dass eine AI zum Zweck X eingesetzt wird, dürfte oft genügen. Verwendet ein Dienstleister Personendaten für Trainingszwecke auch zugunsten anderer Kunden, also nicht nur als Auftragsbearbeiter, ist ein entsprechender Hinweis bspw. in einer Datenschutzerklärung ebenfalls sinnvoll. Zur Transparenz vgl. auch S. 10 des “Verwendung generativer KI – Leitfaden zum Datenschutzgesetz” des VUD.