Die deutsche Datenschutzkonferenz, die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder, hat eine Orientierungshilfe “Künstliche Intelligenz und Datenschutz” veröffentlicht (Version 1.0 vom 6. Mai 2024 – dass die Orientierungshilfe in Zukunft angepasst werden wird, wird ausdrücklich erwähnt).
Die Orientierungshilfe (OH) konzentriert sich auf Generative AI und adressiert vor allem die Verantwortlichen, die AI-Anwendungen einsetzen wollen; andere Funktionen wie Entwickler, Hersteller und Anbieter werden nur mittelbar betroffen.
Die OH geht die üblichen datenschutzrechtlichen Anforderungen durch und unterscheidet dabei im Aufbau zwischen der Konzeption des Einsatzes und der Auswahl von KI-Anwendungen, zu ihrer Implementierung und zu ihrer Nutzung. Die Ausführungen überschneiden sich allerdings; manche Hinweise für die Konzeptionsphase betreffen z.B. ebenso die Nutzungsphase. Hervorzuheben sind folgende Punkte:
Konzeptionsphase
- Die OH legt das Gewicht hier auf eine Prüfung, wie und zu welchem Zweck das Modell angewendet werden soll – die OH richtet sich hier also vor allem gegen Blindflug, vielleicht aus Neugier oder der Hoffnung auf vage Vorteile. Soweit möglich, sollen Verantwortliche auf die Verwendung von Personendaten verzichten. Weil der Begriff des Personendatums weit ist, können Verantwortliche aber nicht voreilig hoffen, nicht in den Anwendungsbereich des Datenschutzrechts zu fallen.
- Bei LLMs weist die DSK darauf hin, dass eine Bearbeitung von Personendaten auch darin liegen kann, dass das Modell selbst Personendaten enthält. Unklar bleibt allerdings, inwiefern dies in den Verantwortungsbereich des Verantwortlichen fallen soll.
- Mit Bezug auf das Training muss sich der Verantwortliche fragen, ob Fehler beim Training eine Auswirkung auf eine eigene Datenbearbeitung haben können.
- Eine eigene Rechtsgrundlage (dazu verweist die OH auf ein Papier der Datenschutzbehörde Baden-Württembergs) wäre erforderlich, wenn Personendaten für Trainingszwecke verwendet werden; auch dann, wenn der Verantwortliche ein Fremdsystem nutzt, das durch Eingaben weiter trainiert wird;
- Geheimnisvorschriften können anwendbar sein;
- Informations- und Transparenzpflichten sind zu beachten. Soweit eine automatisierte Einzelentscheidung erfolgt, muss der Verantwortliche u.a. über die “Logik” der Entscheidung informieren. Das bedeutet nach der OH eine “Erläuterung der Methode der Datenverarbeitung bezogen auf die Funktionsweise des Programmablaufs im Zusammenhang mit der konkreten Anwendung”. Dabei können “Visualisierungen und interaktive Techniken” helfen, “die Komplexität der Logik auf ein verständliches Maß herunter zu brechen”;
- Betroffenenrechte: Ein KI-Modell müsse in der Lage sein, unrichtige Personendaten zu korrigieren, bspw. duch ein Nachtraining oder ein Fine Tuning. Beim Löschrecht genügt ein Ausgabefilter an sich nicht, aber sie sind immerhin ein “Beitrag”.
Implementierung
Für die Implementierungsphase hält die OH u.a. folgendes fest:
- Der Drittanbieter des Systems ist i.d.R. ein Auftragsbearbeiter. Eine gemeinsame Verantwortung kommt aber in Betracht, wenn
eine KI-Anwendung mit unterschiedlichen Datensätzen gespeist oder trainiert oder auf der Plattform einer Stelle ihre KI-Anwendung von anderen Stellen zu neuen KI-Anwendungen weiterentwickelt wird. Es ist nicht erforderlich, dass der Verantwortliche tatsächlich Zugang zu den verarbeiteten Daten hat, um als gemeinsam Verantwortlicher eingestuft zu werden.
- Die Bekanntgabe von Personendaten zwischen gemeinsam Verantwortlichen verlange eine eigene Rechtsgrundlage, dieses Verhältnis ist in diesem Sinne also nicht privilegiert (was auch aus der Rechtsprechung des EuGH hervorgeht).
- Im internen Verhältnis sollen Verantwortliche klare Regeln vorgeben, wie Mitarbeitende mit KI-Anwendungen umgehen sollen bzw. dürfen. Zudem sollen Mitarbeitenden dafür eigene Arbeitsgeräte und Accounts zur Verfügung gestellt werden, mit nicht-sperchenden Accounts (z.B. einer Funktions-Email-Adresse).
- Bei KI-Anwendungen sei “vielfach” eine Datenschutz-Folgenabschätzung (DSFA) notwendig. Die “black list” der DSK sieht denn auch vor, dass eine DSFA beim Einsatz von KI zur “Steuerung der Interaktion mit den Betroffenen oder zur Bewertung persönlicher Aspekte der betroffenen Person” zwingend ist, wenn dabei Personendaten bearbeitet werden (z.B. bei einer Sentiment Analysis eines Callcenters oder ein Chatbot, der “mit Kunden durch Konversation interagiert” und für die Beratung Personendaten verwendet).
Verwendung von KI-Anwendungen
Bei der Nutzung sollen Verantwortliche u.a. die Eingabe von Personendaten auf ein Minimum beschränken. Soweit durch eine AI ein Personendatum generiert wird, sei dafür ebenfalls eine Rechtsgrundlage erforderlich, d.h. wenn der Anwender eine Ausgabe einer bestimmten Person zuordnet. Das Beispiel der OH ist eine vorgeschlagene Spieleraufstellung für einen Fussballtrainer.
Die Ergebnisse der KI müssen sodann auf ihre Richtigkeit geprüft werden, wenn sie Personenbezug aufwenden, und solche Ergebnisse dürfen nicht in diskriminierender Art und Weise verwendet werden.