Ven­te à emporter (AI)
  • Les lignes direc­tri­ces de l’ED­SA ver­si­on 2.0 défi­nis­sent les modè­les de design trom­peurs dans les inter­faces de médi­as soci­aux et don­nent des con­seils con­crets de con­cep­ti­on et de con­trô­le con­for­mes au RGPD.
  • Des caté­go­ries com­me Over­loa­ding, Skip­ping, Stir­ring, Obs­truc­ting, Fick­le et Left in the dark décri­vent des pra­ti­ques trom­peu­ses qui sapent l’au­to­no­mie et les atten­tes des utilisateurs.
  • des exi­gen­ces stric­tes en matiè­re de con­sen­te­ment, de décla­ra­ti­ons de con­fi­den­tia­li­té et de noti­fi­ca­ti­on des vio­la­ti­ons de la sécu­ri­té ; une révo­ca­ti­on faci­le et des infor­ma­ti­ons clai­res et acce­s­si­bles sont requises

Le Comi­té euro­pé­en de la pro­tec­tion des don­nées (CEPD) a adop­té – dès le 14 février 2023 – la ver­si­on 2.0 de 74 pages des lignes direc­tri­ces sur les mesu­res trom­peu­ses dans les médi­as soci­aux (Lignes direc­tri­ces 03/2022 sur les modè­les de con­cep­ti­on décep­tifs dans les inter­faces des pla­te­for­mes de médi­as soci­aux : com­ment les recon­naît­re et les évi­ter) a été publiée. La ver­si­on pré­cé­den­te 1.0 avait été mise en con­sul­ta­ti­on publi­que le 14 mars 2022.

Les lignes direc­tri­ces sont basées sur le RGPD et pré­sen­tent de maniè­re très détail­lée une série de pra­ti­ques qui, du point de vue de l’ED­SA ou de ses mem­bres, sont trom­peu­ses, sous la for­me d’un gui­de pour la con­cep­ti­on con­for­me à la pro­tec­tion des don­nées ou d’u­ne liste de con­trô­le pour l’ex­amen et, dans chaque cas, avec des con­seils de con­cep­ti­on. L’an­ne­xe 2 con­ti­ent d’aut­res recom­man­da­ti­ons de “bon­nes pra­ti­ques” desti­nées à faci­li­ter le respect du RGPD.

Dans l’en­sem­ble, les recom­man­da­ti­ons de l’ED­SA peu­vent être résu­mées com­me suit : l’ex­plo­itant d’un site de médi­as soci­aux doit se com­porter de maniè­re décen­te et se mett­re à la place de l’uti­li­sa­teur, ce der­nier du point de vue d’un uti­li­sa­teur ayant une fai­ble durée d’at­ten­ti­on et n’a­yant pas d’at­ti­tu­de cri­tique. Il est con­trai­re à cet­te règ­le non seu­le­ment de prend­re l’uti­li­sa­teur pour un idi­ot ou de le har­ce­ler, mais aus­si de ne pas pou­voir sup­p­ri­mer un comp­te, mais seu­le­ment le désac­ti­ver, une pra­tique cou­ran­te mais gênan­te. Ce qui serait inad­mis­si­ble, par exemple :

Exemp­le 56 : Dans le pro­ce­s­sus de sup­pres­si­on de leur comp­te, les uti­li­sa­teurs se voi­ent pro­po­ser deux opti­ons à choi­sir : Sup­p­ri­mer leur comp­te ou le mett­re en pau­se. Par défaut, l’op­ti­on de mise en pau­se est sélectionnée.

Caté­go­ries de pra­ti­ques inacceptables

Les caté­go­ries sui­van­tes con­cer­nent le con­te­nu (par exemp­le les for­mu­la­ti­ons) ou la con­cep­ti­on des pages de médi­as soci­aux (inter­face uti­li­sa­teur) sont dis­cu­tées dans le guide :

Surchar­ge„ :

La surchar­ge signi­fie que les uti­li­sa­teurs sont con­fron­tés à une avalanche/gran­de quan­ti­té de deman­des, d’in­for­ma­ti­ons, d’op­ti­ons ou de pos­si­bi­li­tés afin de les inci­ter à par­ta­ger davan­ta­ge de don­nées ou de per­mett­re invo­lon­tai­re­ment un trai­te­ment des don­nées per­son­nel­les con­trai­re aux atten­tes du sujet des don­nées. Les trois types de modè­les de con­cep­ti­on décep­tifs sui­vants ent­rent dans cet­te caté­go­rie : Con­ti­nuous promp­ting, Pri­va­cy Maze et Too Many Options.

Exemp­le : un uti­li­sa­teur est invi­té à sai­sir son numé­ro de télé­pho­ne à chaque connexion.

Sau­ter„ :

Skip­ping means conce­voir l’in­ter­face ou le par­cours uti­li­sa­teur de tel­le sor­te que les uti­li­sa­teurs oubli­ent ou ne pen­sent pas à tous les aspects de la pro­tec­tion des don­nées ou à cer­ta­ins d’ent­re eux. Les deux types de modè­les de con­cep­ti­on décep­tifs sui­vants relè­vent de cet­te caté­go­rie : Decep­ti­ve Snug­ness et Look over there

Selon l’ED­SA, un exemp­le serait de don­ner à l’uti­li­sa­teur des pos­si­bi­li­tés de choix, mais d’en mett­re une – cel­le qui n’est pas éco­no­me en don­nées – en évi­dence, par exemp­le par une pré­sen­ta­ti­on gra­phi­que cor­re­spond­an­te (gri­ser les aut­res opti­ons). Cela va à l’en­cont­re du prin­ci­pe de “pri­va­cy by default” :

L’exemp­le 9 illu­stre un modè­le d’in­sou­ci­ance décep­ti­ve, car ce n’est pas l’op­ti­on offrant le niveau de pro­tec­tion des don­nées le plus éle­vé qui est sélec­tion­née, et donc acti­vée, par défaut. En out­re, l’ef­fet par défaut de ce modè­le inci­te les uti­li­sa­teurs à con­ser­ver la pré­sélec­tion, c’est-à-dire à ne pas prend­re le temps de con­sidé­rer les aut­res opti­ons à ce sta­de ni de reve­nir en arriè­re pour modi­fier le rég­la­ge à un sta­de ultérieur.

Pour le droit sui­s­se, une tel­le con­cep­ti­on ne vio­le cer­tai­ne­ment pas le prin­ci­pe de Pri­va­cy by Default, car un choix est cer­tes pro­po­sé à l’uti­li­sa­teur, mais celui-ci le con­fir­me. Ce n’est que si la con­fir­ma­ti­on est per­çue com­me qua­si nul­le, c’est-à-dire si la trom­pe­rie va aus­si loin, que l’on pour­rait par­ler d’u­ne violation.

Stir­ring„ :

Stir­ring affec­te le choix que les uti­li­sa­teurs ferai­ent par en faisant appel à leurs émo­ti­ons ou en uti­li­sant des nud­ges visuels. Les deux types de modè­les de con­cep­ti­on trom­peurs sui­vants appar­ti­en­nent à cet­te caté­go­rie : Emo­tio­nal Stee­ring et Hid­den in plain sight.

Selon l’ED­SA, un exemp­le serait de deman­der aux uti­li­sa­teurs de four­nir plus de don­nées que cel­les requises :

Tell us about your ama­zing self ! Nous ne pou­vons pas attendre, alors viens tout de suite et fais-nous savoir” !

Obs­truc­tion„ :

Moy­ens d’obs­truc­tion ent­ra­ver ou blo­quer les uti­li­sa­teurs dans leur pro­ce­s­sus d’êt­re infor­més ou de gérer leurs don­nées en rendant l’ac­tion dif­fi­ci­le ou impos­si­ble à réa­li­ser. Les trois types de sché­mas de con­cep­ti­on trom­peurs sui­vants ent­rent dans cet­te caté­go­rie : Dead end, Lon­ger than neces­sa­ry and Mis­lea­ding action

Bai­se„ :

Fick­le signi­fie que la con­cep­ti­on de l’in­ter­face est incohé­rent et pas clairCela rend dif­fi­ci­le pour l’uti­li­sa­teur de navi­guer ent­re les dif­fér­ents outils de con­trô­le de la pro­tec­tion des don­nées et de com­prend­re l’ob­jec­tif du trai­te­ment. Les quat­re types de modè­les de con­cep­ti­on décep­tifs sui­vants relè­vent de cet­te caté­go­rie : man­que de hié­rar­chie, décon­tex­tua­li­sa­ti­on, inter­face incohé­ren­te et dis­con­ti­nui­té linguistique.

Left in the dark„ :

Gau­che dans l’ob­scu­ri­té signi­fie qu’u­ne inter­face est con­çue de maniè­re à ce que cacher des infor­ma­ti­ons ou des outils de con­trô­le de la pro­tec­tion des don­nées ou de lais­ser les uti­li­sa­teurs dans l’in­cer­ti­tu­de quant à la maniè­re dont leurs don­nées sont trai­tées et au type de con­trô­le qu’ils peu­vent avoir sur cel­les-ci en ce qui con­cer­ne l’e­xer­ci­ce de leurs droits. Les deux types de sché­mas de con­cep­ti­on décep­tifs sui­vants relè­vent de cet­te caté­go­rie : infor­ma­ti­ons con­flic­tu­el­les et ambi­guï­té des ter­mes ou des informations.

A cet effet, un résu­mé et l’a­per­çu sui­vant figu­rent en annexe :

Ces pra­ti­ques peu­vent être con­trai­res à l’ar­tic­le 5 du RGPD (prin­cipes de trai­te­ment) et, dans le cas des con­sen­te­ments, à l’ar­tic­le 4, point 11, et à l’ar­tic­le 7 du RGPD. Plus pré­cis­é­ment, elles peu­vent por­ter att­ein­te aux pré­oc­cu­pa­ti­ons sui­van­tes, que l’AESD attri­bue au RGPD :

  • Auto­no­mie – Les per­son­nes con­cer­nées dev­rai­ent béné­fi­ci­er du degré d’au­to­no­mie le plus éle­vé pos­si­ble pour déter­mi­ner l’uti­li­sa­ti­on qui sera fai­te de leurs don­nées à carac­tère per­son­nel, ain­si que de l’au­to­no­mie con­cer­nant l’é­ten­due et les con­di­ti­ons de cet­te uti­li­sa­ti­on ou de ce traitement.
  • Inter­ac­tion – Les per­son­nes con­cer­nées doi­vent être en mesu­re de com­mu­ni­quer et d’e­xer­cer leurs droits en ce qui con­cer­ne les don­nées per­son­nel­les trai­tées par le contrôleur.
  • Expec­ta­ti­on – Le trai­te­ment doit cor­re­spond­re aux atten­tes rai­sonn­ables des sujets de données.
  • Choix du con­som­ma­teur – Les con­trô­leurs ne doi­vent pas “ver­rouil­ler” leurs uti­li­sa­teurs de maniè­re iné­qui­ta­ble. Chaque fois qu’un ser­vice trai­tant des don­nées per­son­nel­les est pro­prié­tai­re, il peut cré­er un ver­rouil­la­ge du ser­vice, qui peut ne pas être équi­ta­ble s’il com­pro­met la pos­si­bi­li­té pour les per­son­nes con­cer­nées d’e­xer­cer leur droit à la por­ta­bi­li­té des don­nées con­for­mé­ment à l’ar­tic­le 20 du GDPR.
  • Balan­ce de puis­sance – L’é­qui­lib­re des pou­voirs dev­rait être un objec­tif clé de la rela­ti­on con­trô­leur-sujet de don­nées. o Les désé­qui­li­bres dev­rai­ent être évi­tés. Lorsque cela n’est pas pos­si­ble, ils doi­vent être recon­nus et pris en comp­te ou fai­re l’ob­jet de cont­re-mesu­res appropriées.
  • Pas de trom­pe­rie – Les infor­ma­ti­ons et les opti­ons de trai­te­ment des don­nées doi­vent être four­nies de maniè­re objec­ti­ve et neu­tre, en évi­tant tout lan­ga­ge ou tou­te con­cep­ti­on décep­ti­ve ou manipulatrice.
  • Truthful – les con­trô­leurs doi­vent mett­re à dis­po­si­ti­on des infor­ma­ti­ons sur la maniè­re dont ils trai­tent les don­nées à carac­tère personnel.
    don­nées, dev­rai­ent agir com­me ils le décla­rent et ne pas léser les sujets de données.

L’AESD dis­cu­te de ces pra­ti­ques dans la sec­tion 3 des lignes direc­tri­ces, cha­cu­ne avec une descrip­ti­on, une ana­ly­se des dis­po­si­ti­ons appli­ca­bles du RGPD et des exemples.

Révo­ca­ti­on du consentement

L’AESP souli­gne notam­ment que, lors de la con­cep­ti­on de décla­ra­ti­ons de con­sen­te­ment, il con­vi­ent de tenir comp­te du sup­port sur lequel le con­sen­te­ment est deman­dé, c’est-à-dire que l’ob­jet du con­sen­te­ment et les infor­ma­ti­ons néces­saires doi­vent être clai­re­ment iden­ti­fi­a­bles, même sur un télé­pho­ne por­ta­ble. Par ail­leurs, l’AESP suit à bien des égards sa pra­tique stric­te bien con­nue, par exemp­le en ce qui con­cer­ne la révo­ca­bi­li­té des consentements :

Par exemp­le, le con­sen­te­ment ne peut être con­sidé­ré com­me valable au tit­re du RGPD s’il est obte­nu par un seul clic de sou­ris, un seul bala­ya­ge ou une seu­le frap­pe de clé, mais le retrait néces­si­te davan­ta­ge d’é­tapes, est plus dif­fi­ci­le à obte­nir ou prend plus de temps.

Et

Exemp­le 33 : Un four­nis­seur de médi­as soci­aux ne pro­po­se pas d’opt-out direct du trai­te­ment d’u­ne publi­ci­té ciblée, même si le con­sen­te­ment (opt-in) ne néces­si­te qu’un seul clic.

Les lignes direc­tri­ces con­ti­en­nent diver­ses aut­res réfé­ren­ces aux con­sen­te­ments et à leur documentation.

Exi­gen­ces rela­ti­ves aux décla­ra­ti­ons de confidentialité

Aus­si Exi­gen­ces rela­ti­ves aux décla­ra­ti­ons de con­fi­den­tia­li­té sont abor­dés, par exemp­le avec la décla­ra­ti­on sui­van­te, qui est sans aucun dou­te correcte :

Tou­te­fois, plus d’in­for­ma­ti­ons ne signi­fie pas néces­saire­ment de meil­leu­res infor­ma­ti­ons. Trop d’in­for­ma­ti­ons non per­ti­nen­tes ou con­fu­ses peu­vent obscur­cir des points de con­te­nu importants ou rédui­re la pro­ba­bi­li­té de les trou­ver. Par con­sé­quent, le juste équi­lib­re ent­re le con­te­nu et la pré­sen­ta­ti­on com­pré­hen­si­ble est cru­cial dans ce domaine. Si cet équi­lib­re n’est pas respec­té, des sché­mas de con­cep­ti­on décep­tifs peu­vent apparaître.

C’est tou­te­fois plus faci­le à dire qu’à fai­re, car les décla­ra­ti­ons de pro­tec­tion des don­nées ne sont pas rédi­gées pour la gran­de mas­se des uti­li­sa­teurs, mais pour les quel­ques excep­ti­ons qui les exami­nent minu­ti­eu­se­ment à la recher­che de lacu­nes en cas de liti­ge. Si l’on veut s’en assurer, les décla­ra­ti­ons de con­fi­den­tia­li­té sont sou­vent rédi­gées de maniè­re très détail­lée, ce qui ris­que de les alour­dir. Dans le cas de décla­ra­ti­ons de pro­tec­tion des don­nées volu­mi­neu­ses, une bon­ne pré­sen­ta­ti­on gra­phi­que, par exemp­le avec des tex­tes à déplier com­me par exemp­le iciou une distinc­tion clai­re ent­re les affir­ma­ti­ons fon­da­men­ta­les et les exemp­les, ou une bon­ne struc­tu­ra­ti­on (ce que l’ED­SA souli­gne éga­le­ment), etc. De même, la Icô­nes de con­fi­den­tia­li­té peu­vent y contribuer.

Vers les Exi­gen­ces lin­gu­isti­ques pour les décla­ra­ti­ons de con­fi­den­tia­li­té dit l’EDSA,

Les uti­li­sa­teurs seront con­fron­tés à ce modè­le de con­cep­ti­on décep­tif [“dis­con­ti­nui­té lin­gu­istique”] lorsque les infor­ma­ti­ons rela­ti­ves à la pro­tec­tion des don­nées ne sont pas four­nies dans les les lan­gues offi­ci­el­les du pays dans lequel ils vivent, alors que le ser­vice est four­ni dans cet­te langue 

On peut com­prend­re cela com­me suit : les infor­ma­ti­ons sur la pro­tec­tion des don­nées doi­vent être pré­sen­tées dans la lan­gue dans laquel­le l’off­re peut être uti­li­sée. Mais ce qui suit est éga­le­ment inadmissible :

Chaque fois que les uti­li­sa­teurs accè­dent à cer­tai­nes pages, com­me la page d’ai­de, cel­les-ci bas­cu­lent auto­ma­ti­quement dans la lan­gue du pays dans lequel ils se trou­vent, même s’ils ont pré­cé­dem­ment sélec­tion­né une aut­re langue.

Si un ser­vice peut être uti­li­sé sur un site web et une appli­ca­ti­on, les infor­ma­ti­ons requi­ses doi­vent en prin­ci­pe être de les mett­re à dis­po­si­ti­on direc­te­ment dans l’ap­pli­ca­ti­on:

Il est important de noter que des effets enco­re plus importants que ceux causés par un trop grand nombre de couch­es peu­vent se pro­dui­re lorsque non seu­le­ment plu­sieurs appareils, mais aus­si plu­sieurs appli­ca­ti­ons four­nies par la même pla­te­for­me de médi­as soci­aux, tel­les que des appli­ca­ti­ons de mes­sa­ge­rie spé­cia­les, sont uti­li­sés. Les uti­li­sa­teurs qui uti­li­sent ce type d’ap­pli­ca­ti­on second­ai­re serai­ent con­fron­tés à de plus grands obs­ta­cles et efforts s’ils devai­ent appe­l­er la ver­si­on du navi­ga­teur ou l’ap­pli­ca­ti­on prin­ci­pa­le pour obte­nir des infor­ma­ti­ons rela­ti­ves à la pro­tec­tion des don­nées. Dans une tel­le situa­ti­on, qui n’est pas seu­le­ment inter-appareils mais inter-appli­ca­ti­ons, le les infor­ma­ti­ons per­ti­nen­tes doi­vent tou­jours être direc­te­ment acce­s­si­bles, quel­le que soit la maniè­re dont les uti­li­sa­teurs uti­li­sent la pla­te­for­me.

L’EDSA reste éga­le­ment stric­te et réitère l’o­pi­ni­on selon laquel­le les décla­ra­ti­ons de pro­tec­tion des don­nées ne doi­vent pas être uti­li­sées à des fins com­mer­cia­les. For­mu­la­ti­ons com­me “we might use your data for…” ou “our ser­vices” sont trop géné­ri­ques. Les exi­gen­ces con­cer­nant le con­te­nu des infor­ma­ti­ons restent éga­le­ment élevées :

Exemp­le 46 : La pla­te­for­me de médi­as soci­aux ne men­ti­on­ne pas expli­ci­te­ment que les uti­li­sa­teurs de l’UE ont le droit de dépo­ser une plain­te auprès d’u­ne auto­ri­té de con­trô­le, mais se con­tente de men­ti­on­ner que dans cer­ta­ins pays – sans pré­cis­er les­quels – il exi­ste des auto­ri­tés de pro­tec­tion des don­nées avec les­quel­les le four­nis­seur de médi­as soci­aux coopè­re en matiè­re de plaintes.

Pour les Men­ti­ons rela­ti­ves aux droits des per­son­nes con­cer­nées l’ED­SA va enco­re plus loin :

Exemp­le 49 : Le para­gra­phe sous le sous-tit­re “droit d’ac­cès” dans la poli­tique de con­fi­den­tia­li­té expli­que que les uti­li­sa­teurs ont le droit d’ob­te­nir des infor­ma­ti­ons con­for­mé­ment à l’ar­tic­le 15, para­gra­phe 1, du RGPD. Tou­te­fois, il ne men­ti­on­ne que la pos­si­bi­li­té pour les uti­li­sa­teurs de rece­voir une copie de leurs don­nées per­son­nel­les. Il n’y a pas de lien direct visi­ble pour exer­cer le volet “copie” du droit d’ac­cès pré­vu à l’ar­tic­le 15, para­gra­phe 3, du GDPR. En revan­che, les trois pre­miers mots de “Vous pou­vez obte­nir une copie de vos don­nées per­son­nel­les” sont légè­re­ment souli­g­nés. En sur­vo­lant ces mots avec la sou­ris de l’uti­li­sa­teur, une peti­te boîte s’af­fi­che avec un lien vers les paramètres.

Il s’a­gi­rait d’un cas de “hid­den in plain sight”. Une tel­le con­cep­ti­on dev­rait sans dou­te plutôt être citée par­mi les meil­leu­res pratiques.

Noti­fi­ca­ti­on des vio­la­ti­ons de la sécurité

L’EDSA abor­de éga­le­ment ce sujet. Il y a vio­la­ti­on de la sécu­ri­té, par exemp­le, lorsqu’u­ne appli­ca­ti­on peut accé­der à davan­ta­ge de don­nées à la suite d’u­ne err­eur de pro­gram­ma­ti­on. Les vio­la­ti­ons de la sécu­ri­té doi­vent éga­le­ment être com­mu­ni­quées aux per­son­nes con­cer­nées en cas de ris­ques éle­vés, et il con­vi­ent ici aus­si d’é­vi­ter les for­mes trom­peu­ses, par exemp­le en asso­ci­ant les infor­ma­ti­ons sur la natu­re et l’é­ten­due des vio­la­ti­ons à des “infor­ma­ti­ons non spé­ci­fi­ques et non per­ti­nen­tes et les impli­ca­ti­ons et mesu­res de pré­cau­ti­on que le con­trô­leur a pri­ses ou sug­gè­re de prend­re” : “Ces infor­ma­ti­ons en par­tie non per­ti­nen­tes peu­vent être trom­peu­ses et les uti­li­sa­teurs con­cer­nés par la vio­la­ti­on pour­rai­ent ne pas com­prend­re plei­ne­ment les impli­ca­ti­ons de la vio­la­ti­on ou sous-esti­mer les effets (poten­tiels)”.

Les élé­ments sui­vants sont éga­le­ment inadmissibles :

Exemp­le 20 : Le con­trô­leur se réfè­re uni­quement aux actions d’u­ne tier­ce par­tie, au fait que la vio­la­ti­on de don­nées a été causée par une tier­ce par­tie (par exemp­le, un pro­ce­s­seur) et qu’il n’y a donc pas eu de vio­la­ti­on de la sécu­ri­té. Le con­trô­leur met éga­le­ment en évi­dence cer­tai­nes bon­nes pra­ti­ques qui n’ont rien à voir avec la vio­la­ti­on réelle.

Le con­trô­leur décla­re la gra­vi­té de la vio­la­ti­on de don­nées par rap­port à lui-même ou à un pro­ce­s­seur, plutôt que par rap­port au sujet des données.

Ou bien

Exemp­le 21 : Suite à une vio­la­ti­on de don­nées sur une pla­te­for­me de médi­as soci­aux, plu­sieurs séries de don­nées rela­ti­ves à la san­té ont été acci­den­tel­le­ment acce­s­si­bles à des uti­li­sa­teurs non auto­ri­sés. Le four­nis­seur de médi­as soci­aux infor­me uni­quement les uti­li­sa­teurs que des “caté­go­ries spé­cia­les de don­nées per­son­nel­les” ont été ren­dues publi­ques par accident.

Ou bien

Exemp­le 22 : Le con­trô­leur ne four­nit que des détails vagues lors de l’i­den­ti­fi­ca­ti­on des caté­go­ries de don­nées à carac­tère per­son­nel con­cer­nées, par exemp­le le con­trô­leur se réfè­re à des docu­ments sou­mis par des uti­li­sa­teurs sans pré­cis­er les caté­go­ries de don­nées à carac­tère per­son­nel que ces docu­ments con­ti­en­nent et le degré de sen­si­bi­li­té de ces données.

Ou bien

Exemp­le 23 : Lors de la décla­ra­ti­on de la vio­la­ti­on, le con­trô­leur ne pré­cise pas suf­fi­sam­ment la caté­go­rie des sujets de don­nées con­cer­nés, par exemp­le, le con­trô­leur indi­que uni­quement que les sujets de don­nées con­cer­nés sont des étu­di­ants, mais le con­trô­leur ne pré­cise pas si les sujets de don­nées sont des mineurs ou des grou­pes de sujets de don­nées vulnérables.

Ou bien

Exemp­le 24 : Un con­trô­leur décla­re que des don­nées à carac­tère per­son­nel ont été ren­dues publi­ques par le biais d’aut­res sources lorsqu’il noti­fie la vio­la­ti­on à l’au­to­ri­té de con­trô­le et au sujet des don­nées. Par con­sé­quent, le sujet des don­nées con­sidè­re qu’il n’y a pas eu de vio­la­ti­on de la sécurité.