Vente à emporter (AI)
- Des directives claires en matière de conformité, l’implication des responsables de la protection des données et la mise à disposition de comptes fonctionnels sécurisés plutôt que de comptes privés.
- Interdiction d’entrer/de sortir des données personnelles, opt-out de la formation/de l’historique et vérification de l’exactitude et de la discrimination.
- Pas de décision finale automatisée ; sensibiliser les collaborateurs ; surveiller les aspects juridiques (droit d’auteur, secrets commerciaux, AI-Act).
Le délégué hambourgeois à la protection des données et à la liberté d’information (HmbBfDI) a lancé un Liste de contrôle pour l’utilisation de chatbots sur la base de Large Language Models (LLMs), comme par exemple ChatGPT, en allemand et en anglais.
La liste de contrôle comprend les points suivants :
- Règles de conformité donner des instructions (directives, etc.)
- Responsable de la protection des données intégrer
- Mise à disposition d’un Comptes de fonction (pour que les collaborateurs ne soient pas obligés d’utiliser un compte privé ; idéalement, le compte devrait être sans nom)
- Sécurisé Authentification (pour que les pirates ne puissent pas abuser du compte)
- Pas de Saisie de données à caractère personnel (clients, partenaires commerciaux, propres données personnelles du collaborateur)
- Pas de Édition de données à caractère personnel (parce que l’IA peut intégrer des informations provenant d’Internet ; les invites ne devraient donc pas viser des données personnelles, par exemple pas de questions “qui”)
- Attention aux données personnelles (c.-à‑d. aucune saisie de données qui, dans le contexte, permettent une référence personnelle)
- Opt-out du Formations à l’IA (par ex. désactivation de “Chat history and training”)
- Opt-out de la Histoire (surtout si plusieurs personnes utilisent le même compte)
- Résultats vérifier l’exactitude
- Résultats vérifier s’il y a discrimination (il ne faut pas suivre, par exemple, une recommandation de pourvoir un poste vacant avec des “hommes portant des lunettes” ( ?))
- Pas de décision finale automatisée (pas de prise en charge de recommandations, par exemple parce que la manière dont une recommandation est formulée n’est pas claire)
- Employés sensibilisent (concernant l’utilisation autorisée de tels outils)
- La protection des données ne fait pas tout (les droits d’auteur, les secrets commerciaux, etc. doivent également être pris en compte)
- Autres Développement (par exemple, l’AI Act, qui réglemente également les utilisateurs).