Takeaways (AI):
- Compliance-Regelungen vorgeben (Weisungen usw.)
- Datenschutzbeauftragte einbinden
- Bereitstellung eines Funktions-Accounts für Mitarbeiter ohne persönlichen Bezug
- Keine Eingabe personenbezogener Daten zur Vermeidung von Risiken
- Ergebnisse auf Richtigkeit und Diskriminierung prüfen
Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit (HmbBfDI) hat eine Checkliste zum Einsatz von Chatbots auf Basis von Large Language Models (LLMs) wie bspw. ChatGPT auf Deutsch und Englisch veröffentlicht.
Die Checkliste umfasst folgende Punkte:
- Compliance-Regelungen vorgeben (Weisungen usw.)
- Datenschutzbeauftragte einbinden
- Bereitstellung eines Funktions-Accounts (damit Mitarbeiter nicht ein privates Account verwenden müssen; idealerweise solle das Account ohne Name auskommen)
- Sichere Authentifizierung (damit Angreifer das Account nicht missbrauchen können)
- Keine Eingabe personenbezogener Daten (Kunden, Geschäftspartner, eigene Personendaten des Mitarbeiters)
- Keine Ausgabe personenbezogener Daten (weil die AI Informationen aus dem Internet einbeziehen kann; Prompts sollten daher nicht auf Personendaten zielen, also bspw. keine „wer“-Fragen)
- Vorsicht bei personenbeziehbaren Daten (d.h. keine Eingabe von Daten, die im Kontext einen Personenbezug erlauben)
- Opt-out des KI-Trainings (z.B. Ausschalten von „Chat history and training“)
- Opt-out der History (besonders wenn mehrere das gleiche Account verwenden)
- Ergebnisse auf Richtigkeit prüfen
- Ergebnisse auf Diskriminierung prüfen (nicht zu befolgen sei bspw. eine Empfehlung, eine freie Stelle mit „männlichen Brillenträgern“ zu besetzen (?))
- Keine automatisierte Letztentscheidung (keine Übernahme von Empfehlungen bspw. weil nicht klar ist, wie eine Empfehlung zustandekommt)
- Beschäftigte sensibilisieren (betr. zulässigem Einsatz solcher Tools)
- Datenschutz ist nicht alles (auch Urheberrechte, Geschäftsgeheimnisse usw. seien zu berücksichtigen)
- Weitere Entwicklung verfolgen (bspw. den AI Act, der auch Nutzer reguliert)