- 61 Les autorités de protection des données demandent des mesures de protection contre la génération abusive d’images réalistes et de représentations intimes par l’IA.
- Les organisations doivent offrir une transparence sur les capacités, les protections, l’utilisation autorisée et les sanctions en cas d’abus.
- Les exigences légales : Obligation d’étiquetage de l’IA dans l’AI Act à partir d’août 2026 et initiatives nationales de droit pénal contre les deepfakes.
Le 23 février 2026, 61 autorités de protection des données, y compris le PFPDT et le PFSA, la CNIL (FR) et l’ICO (UK) ont publié une déclaration commune sur les images générées par l’IA :
- Déclaration commune sur les images générées par l’IA (EDÖB, 23.2.2026)
- Déclaration commune sur l’imagerie générée par l’IA et la protection de la vie privée (PDF)
- Communiqué de presse de l’EDPB (23.2.2026)
Cette déclaration s’adresse aux développeurs et aux exploitants d’IA générative. Elle est motivée par le fait qu’il est de plus en plus facile de générer des images et des vidéos réalistes de personnes à leur insu, y compris des représentations intimes et des contenus diffamatoires. La déclaration formule donc quatre points Attentes envers les organisations qui développent ou utilisent l’IA générative:
- Mesures de protection contre l’utilisation abusive de données personnelles et la production d’images intimes non consenties, notamment avec des représentations d’enfants
- Transparence sur les capacités, les mesures de protection, les utilisations autorisées et les conséquences en cas d’abus de l’IA
- des mécanismes de suppression permettant aux personnes concernées de demander rapidement le retrait des contenus préjudiciables
- Mesures de protection spéciale des enfants
L’AI Act contient une obligation de marquage des deepfakes (applicable à partir d’août 2026). En Allemagne, par exemple, il existe un projet de loi pour un nouveau § 201b StGB (code pénal allemand) qui devrait rendre les deepfakes punissables :
§ 201b Atteinte aux droits de la personnalité par la contrefaçon numérique
(1) Toute personne qui porte atteinte aux droits de la personnalité d’une autre personne en diffusant un contenu médiatique créé ou modifié par des moyens informatiques, qui ne respecte pas les droits de la personnalité de la personne concernée. apparence d’un enregistrement visuel ou sonore fidèle à la réalité de l’apparence physique, du comportement ou des déclarations orales de cette personne, à une tierce personne. rend accessible, est puni d’une peine d’emprisonnement de deux ans au maximum ou d’une amende. Il en va de même si l’acte visé à la première phrase concerne une personne décédée et qu’il porte gravement atteinte à ses droits de la personnalité.
(2) Toute personne qui, dans les cas visés au paragraphe 1, première phrase, rend le contenu médiatique accessible au public ou rend accessible un contenu médiatique ayant pour objet un processus relevant de la sphère de la vie strictement personnelle, est passible d’une peine privative de liberté de cinq ans au maximum ou d’une amende.
(3) Le paragraphe 1, première phrase, y compris en liaison avec le paragraphe 2, ne s’applique pas aux actes accomplis dans le cadre de la perception des intérêts légitimes prépondérants notamment à l’art ou à la science, à la recherche ou à l’enseignement, au compte rendu de faits d’actualité ou d’histoire ou à des fins similaires.
(4) Les supports d’images ou de sons ou autres moyens techniques utilisés par l’auteur ou le participant peuvent être confisqués. § L’article 74 bis est applicable.
[modification de l’article 205 et du code de procédure pénale]
En Suisse, le Conseil national a rejeté la Motion Mahaim (23.3563) sur la réglementation des deepfakes dans l’espace public en mai 2025. Toutefois, selon l’objet des deepfakes, des dispositions pénales, la protection de la personnalité en droit civil, le droit de la concurrence déloyale, etc. peuvent s’appliquer.