- L’AEPD a infligé une amende de 30 000 euros parce que les voix de victimes et d’auteurs mineurs n’étaient pas suffisamment anonymisées dans un reportage en ligne.
- Les voix sont considérées comme des données à caractère personnel ; leur caractère unique et leur reconnaissance par l’IA augmentent les risques d’identification.
- Les médias doivent examiner les altérations techniquement acceptables (par ex. distorsion de la voix) et les TOM ; les DSFA sont recommandés pour évaluer les risques.
Par décision du 15 mai 2025, l’autorité espagnole de protection des données (AEPD) a infligé une amende de 30 000 euros à une entreprise de médias pour ne pas avoir suffisamment anonymisé les voix d’au moins trois personnes mineures – dont des victimes et des auteurs d’un acte de violence – dans un reportage d’actualité publié en ligne. Les visages étaient certes pixélisés, mais les voix n’étaient pas altérées.
Le critère déterminant pour l’AEPD était que le vote constituait une donnée personnelle. En raison de son caractère unique et reconnaissable, une voix peut identifier une personne. ou du moins les rendre identifiables (original en espagnol) :
Conformément à l’article 4, paragraphe 1, du règlement général sur la protection des données (RGPD), la voix d’une personne est une donnée à caractère personnel, car elle permet de l’identifier, et entre donc dans le champ d’application du RGPD : […]
La voix est une caractéristique personnelle et individuelle de chaque personne physique et se définit par sa hauteur, son volume et son timbre. Elle possède des caractéristiques uniques et distinctivesLes données personnelles ne sont pas enregistrées dans le système. Par la voix l’âge, le sexe, l’état de santé, la personnalité, le contexte culturel ainsi que l’état hormonal, émotionnel et psychique d’un individu.. Des éléments tels que l’expression, l’idiolecte ou l’intonation sont également des données à caractère personnel lorsqu’ils sont considérés dans le contexte de la voix.
C’est pourquoi le rapport 139/2017 du service juridique de cette autorité affirme que “l’image ainsi que la voix d’une personne sont des données à caractère personnel, de même que toute information permettant d’établir directement ou indirectement son identité (…)”.
On ne trouve pas d’analyse plus détaillée de la probabilité d’identification. Mais la L’identification est facilitée par l’IA:
La technologie actuelle, notamment les outils basés sur l’intelligence artificielle, permet d’identifier une personne par sa voix.
La transmission des voix non modifiées n’était pas non plus nécessaire pour l’information du public, et une altération des voix analogue à la pixellisation aurait été raisonnable. – En plus de l’amende, l’entreprise a été obligée de prendre des TOM pour éviter des violations similaires.
Les conclusions suivantes s’imposent :
- D’un point de vue pratique, la décision ne surprend pas. Les notions de données personnelles (et de données personnelles sensibles) sont généralement interprétées de manière large.
- Le site Notion de données personnelles est ici interprété en fonction des risques. Pour les mineurs, la référence à la personne est manifestement comprise de manière plus large, et les risques d’utilisation pour les enregistrements vocaux semblent également se répercuter. D’un point de vue conceptuel, c’est faux. La probabilité d’identification n’augmente pas en soi parce que les données se rapportent à des mineurs ou sont particulièrement sensibles. Cela devrait plutôt être examiné au cas par cas.
- Que l’IA est largement disponibleDans la pratique, il est toutefois probable que les possibilités d’identification soient considérées comme plus importantes et que le champ d’application de la législation sur la protection des données soit ainsi élargi. Ce n’est pas nécessairement faux, mais cela ne remplace pas un examen au cas par cas.
- Dans Études d’impact sur la protection des données ces facteurs devraient être pris en compte, en particulier les possibilités d’identification par des tiers, compte tenu de la technologie actuelle ou de celle qui est attendue dans un avenir proche. Il est également possible d’examiner les possibilités techniques d’anonymisation (par exemple la distorsion de la voix). Les DSFA, qui sont souvent effectués sur une base volontaire, se prêtent à un tel examen (Modèle). Elles peuvent également aboutir à la conclusion qu’il ne faut pas partir du principe que l’identification est suffisante.