Ven­te à emporter (AI)
  • Pri­va­tim iden­ti­fie l’ac­cès par des auto­ri­tés étran­gè­res com­me un ris­que cen­tral de pro­tec­tion des don­nées spé­ci­fi­que au cloud et recom­man­de des mesu­res de loca­li­sa­ti­on, de cont­rat et de cryptage.
  • L’au­teur cri­tique les caté­go­ri­sa­ti­ons sché­ma­ti­ques (p. ex. “don­nées sen­si­bles”) et deman­de des ana­ly­ses de ris­ques au cas par cas ain­si que des décis­i­ons accep­ta­bles en matiè­re de ris­ques, qui ne soi­ent pas assor­ties d’u­ne tolé­rance zéro.

Nou­vel­le fiche d’information

pri­va­tim, l’in­flu­en­te con­fé­rence des com­mis­saires sui­s­ses à la pro­tec­tion des don­nées, a publié le 14 février 2022 une nou­vel­le ver­si­on de sa fiche d’in­for­ma­ti­on “Ris­ques et mesu­res spé­ci­fi­ques au cloud”. L’an­ci­en­ne ver­si­on, désor­mais rem­pla­cée, datait de décembre 2019 (à ce sujet ici):

L’ob­jec­tif de cet­te fiche d’in­for­ma­ti­on est d’i­den­ti­fier les ris­ques spé­ci­fi­ques liés à la pro­tec­tion des don­nées dans le cad­re de l’in­for­ma­tique en nuage et de ser­vices simi­lai­res, et de mon­trer com­ment les orga­nes publics peu­vent assu­mer leurs responsa­bi­li­tés dans ce con­tex­te. Il ne se réfè­re donc ni aux ris­ques géné­raux liés au trai­te­ment des man­dats, ni aux pré­oc­cu­pa­ti­ons ne rele­vant pas de la pro­tec­tion des don­nées et des secrets.

Prin­cipes de base sur les ris­ques liés au cloud

pri­va­tim part du prin­ci­pe que les ris­ques spé­ci­fi­ques au cloud sont déter­mi­nés par cinq facteurs :

  • Réd­ac­tion du contrat
  • Lieux de trai­te­ment des don­nées, y com­pris l’ac­cès des auto­ri­tés étrangères
  • Confidentialité/protection du secret, cryp­ta­ge et gesti­on des clés
  • Don­nées sur les uti­li­sa­teurs des ser­vices en nuage
  • Rela­ti­ons de sous-traitance

En d’aut­res ter­mes, pri­va­tim con­sidè­re com­me pos­si­bles L’ac­cès par des auto­ri­tés étran­gè­res com­me prin­ci­pal ris­que (de pro­tec­tion des don­nées) spé­ci­fi­que au cloud com­pu­ting – à juste tit­re ; tous les aut­res fac­teurs de ris­que ne sont pas spé­ci­fi­ques au cloud, mais se posent éga­le­ment dans le cad­re d’aut­res trai­te­ments de commandes.

En com­plé­ment, pri­va­tim voit cepen­dant d’aut­res ris­ques qui peu­vent être aug­men­tés par l’uti­li­sa­ti­on d’un nuage ou qui doi­vent être pris en considération :

  • Obli­ga­ti­ons de déclaration
  • Droit et pos­si­bi­li­té de contrôle
  • Mesu­res de sécu­ri­té de l’information
  • Obli­ga­ti­ons en cas de rési­lia­ti­on du cont­rat Dépen­dan­ces vis-à-vis du four­nis­seur de pre­sta­ti­ons (dis­po­ni­bi­li­té, frais de migra­ti­on en cas de changement)

Remar­ques sur les prin­ci­paux facteurs

Réd­ac­tion du contrat

Recom­man­da­ti­ons privatim

  • par écrit
  • Cou­vr­ir la pro­por­ti­on­na­li­té et la finalité
  • Obli­ga­ti­on d’as­si­stance en cas de reven­dica­ti­ons rela­ti­ves à la pro­tec­tion des données
  • Droits de con­trô­le sur le respect du contrat
  • Exé­cu­ti­on devant des tri­bu­naux faci­le­ment acce­s­si­bles dans un ord­re juri­di­que fami­lier ; donc en prin­ci­pe le droit sui­s­se et le for en Suisse.
  • Excep­ti­on : les don­nées sont pro­té­gées effi­ca­ce­ment par cryp­ta­ge cont­re l’ac­cès par le four­nis­seur et des tiers ou le for et le droit appli­ca­ble sont ceux d’un État offrant un niveau de pro­tec­tion adé­quat. Cet­te excep­ti­on ne s’ap­pli­que pas si les don­nées con­cer­nées sont par­ti­cu­liè­re­ment sen­si­bles ou si elles con­ti­en­nent des pro­fils de la per­son­na­li­té ou des secrets.

Notes

Les recom­man­da­ti­ons de pri­va­tim ne sont en prin­ci­pe que cela – des recom­man­da­ti­ons. En tant que tel­les, elles ne peu­vent guè­re être fausses, elles sont sim­ple­ment plus ou moins convaincantes.

Il n’est tou­te­fois pas con­vain­cant de con­sidé­rer que la caté­go­ri­sa­ti­on des don­nées con­cer­nées com­me sen­si­bles ou com­me pro­fil de la per­son­na­li­té est un fac­teur décisif en soi. L’ac­cès des auto­ri­tés à de tel­les don­nées n’est ni glo­ba­le­ment plus pro­ba­ble, ni néces­saire­ment plus dom­ma­geable (con­trai­re­ment à l’ac­cès par un pira­te pri­vé, qui ris­que d’en­traî­ner une publi­ca­ti­on sur le Dark­net ; dans ce cas, une con­sidé­ra­ti­on abstrai­te se justi­fie, ceci par dif­fé­ren­cia­ti­on avec l’ac­cès des autorités).

Les lois sur la pro­tec­tion des don­nées lient cer­tes cer­tai­nes con­sé­quen­ces juri­di­ques au sta­tut de don­nées sen­si­bles (ou de don­nées per­son­nel­les par­ti­cu­liè­res dans les actes légis­la­tifs can­tonaux les plus récents), mais cela spé­ci­fi­quement en ce qui con­cer­ne cer­ta­ins points (p. ex. le niveau de nor­me requis pour la base léga­le) et non en ce qui con­cer­ne la com­mu­ni­ca­ti­on à l’étran­ger. La caté­go­rie des don­nées per­son­nel­les par­ti­cu­liè­res peut donc tout au plus avoir un effet indi­ca­tif lors de la com­mu­ni­ca­ti­on à l’étranger.

Il en va de même pour les secretsIl n’est pas décisif de savoir si un secret exi­ste, car le sta­tut d’un secret en tant que tel ne dit rien sur le ris­que d’ac­cès. Il n’y a par exemp­le aucu­ne rai­son de sup­po­ser que les auto­ri­tés étran­gè­res se sou­ci­ent par­ti­cu­liè­re­ment des secrets en géné­ral. Au con­trai­re : si l’on regar­de par exemp­le la FISA et les bases juri­di­ques ana­lo­gues d’aut­res Etats, on con­sta­te que l’ac­cent n’est pas mis sur les secrets, mais plutôt sur les don­nées de communication.

Il est donc pour chaque type de secret, une ana­ly­se de ris­que pro­pre et ouver­te aux résul­tats vu la pro­po­si­ti­on de la Commission

  • la natu­re du secret et, en par­ti­cu­lier, les inté­rêts pro­té­gés par le secret,
  • la pro­ba­bi­li­té d’un accès par des auto­ri­tés étran­gè­res et
  • les con­sé­quen­ces néga­ti­ves en cas d’ac­cès de ce type.

Ce n’est que sur cet­te base qu’il est pos­si­ble de caté­go­ri­ser de maniè­re per­ti­nen­te les stocks d’in­for­ma­ti­ons en fonc­tion des risques.

En ce qui con­cer­ne le secret de fonc­tion géné­ral, il faut tenir comp­te du fait qu’il a un dou­ble objec­tif de pro­tec­tion, en ce sens qu’il pro­tège d’u­ne part les inté­rêts authen­ti­ques de l’É­tat et d’aut­re part la con­fi­ance du citoy­en dans son inter­ac­tion avec l’É­tat. La con­fi­ance du citoy­en n’est pas non plus tou­jours en jeu, et même lorsqu’el­le l’est, elle n’e­xi­ge pas un ris­que zéro.

En ce qui con­cer­ne le droit appli­ca­ble et le for, ce n’est pas non plus la caté­go­rie de pro­tec­tion spé­cia­le qui déter­mi­ne si le droit sui­s­se ou une com­pé­tence en Sui­s­se doi­vent être con­ve­nus. Cer­tes, il est judi­cieux d’en con­ve­nir (dans la mesu­re où un juge­ment est exé­cu­toire dans l’É­tat du pre­sta­tai­re). Mais pour une peti­te com­mu­ne, ce point pour­rait être plus important qu’un orga­ne public dis­po­sant des moy­ens et du savoir-fai­re pour agir en justi­ce à l’étranger.

Lieux de trai­te­ment des don­nées, y com­pris l’ac­cès des auto­ri­tés étrangères

Recom­man­da­ti­ons privatim

  • Décla­ra­ti­on des sites par le fournisseur
  • Le site sui­s­se est à pri­vilé­gier (notam­ment en rai­son des pos­si­bi­li­tés de con­trô­le, mais aus­si pour d’aut­res con­sidé­ra­ti­ons de sécurité)
  • il faut tenir comp­te d’é­ven­tu­el­les obli­ga­ti­ons de remi­se en ver­tu du CLOUD Act
  • Un trai­te­ment à l’étran­ger – y com­pris les accès depuis l’étran­ger – n’est auto­ri­sé que si le niveau de pro­tec­tion est équi­va­lent. Cela peut être rem­pla­cé par des clau­ses con­trac­tu­el­les stan­dard, à con­di­ti­on qu’au­cun accès ne soit pos­si­ble dans l’É­tat cib­le sur la base d’u­ne base juri­di­que insuf­fi­san­te du point de vue des droits fondamentaux :

    Les trai­te­ments de don­nées effec­tués sur des sites à l’étran­ger ne sont auto­ri­sés que dans les États qui dis­po­sent d’un niveau de pro­tec­tion des don­nées équi­va­lent ou dans les­quels une pro­tec­tion des don­nées appro­priée peut être obte­nue par cont­rat, notam­ment par le biais de clau­ses con­trac­tu­el­les stan­dard recon­nues. Ce der­nier cas n’est alors pas le cas, lorsque l’ac­cès des auto­ri­tés est pos­si­ble dans l’É­tat con­cer­né, qui ne satis­font pas aux garan­ties con­sti­tu­ti­on­nel­les des droits fon­da­men­taux (prin­ci­pe de léga­li­té, de pro­por­ti­on­na­li­té, droits des per­son­nes con­cer­nées, accès à des tri­bu­naux indé­pen­dants). Dans ce cas, des mesu­res sup­p­lé­men­tai­res (notam­ment un cryp­ta­ge effi­cace) doi­vent être pri­ses pour que la trans­mis­si­on de don­nées per­son­nel­les à l’étran­ger soit autorisée.

Notes

pri­va­tim se base sur les prin­cipes géné­raux de la trans­mis­si­on à l’étran­ger. Il sem­blerait tou­te­fois que pri­va­tim uti­li­se une base juri­di­que insuf­fi­san­te pour les accès (en Schrems-IIlan­gue : une “légis­la­ti­on pro­blé­ma­tique” com­me la FISA aux États-Unis) exi­ge un ris­que zéro. Ce n’est pas cor­rect – la légis­la­ti­on sur la pro­tec­tion des don­nées n’e­xi­ge pas un ris­que zéro. Cela vaut non seu­le­ment pour le droit pri­vé, mais aus­si pour le droit public de la pro­tec­tion des don­nées, car les droits fon­da­men­taux des per­son­nes con­cer­nées doi­vent être pro­té­gés, mais pas de maniè­re abso­lue. Les orga­nes publics peu­vent et doi­vent éga­le­ment se poser la que­sti­on de savoir com­ment orga­ni­s­er effi­ca­ce­ment l’ad­mi­ni­stra­ti­on et uti­li­ser leurs res­sour­ces de maniè­re éco­no­mi­que. D’u­ne maniè­re géné­ra­le, le droit géné­ral de la sécu­ri­té des don­nées n’e­xi­ge pas un ris­que zéro, même pour les orga­nes publics, et cela n’est pas dif­fé­rent pour la com­mu­ni­ca­ti­on à l’étran­ger que pour les mesu­res de sécu­ri­té des don­nées en général.

Si un pays auto­ri­se l’ac­cès des auto­ri­tés par deux lois, par exemp­le, dont l’u­ne satis­fait aux exi­gen­ces des droits fon­da­men­taux (par exemp­le le CLOUD Act dans le cas des États-Unis) et l’aut­re non (par exemp­le la FISA dans le cas des États-Unis), cela n’empêche la divul­ga­ti­on dans le pays con­cer­né que si l’on peut s’at­tendre à ce que la loi défi­ci­en­te soit uti­li­sée pour les don­nées pertinentes.

Du point de vue de la pro­tec­tion des don­nées, il con­vi­ent donc d’éva­luer la pro­ba­bi­li­té d’un accès des auto­ri­tés lors du trai­te­ment de l’em­pla­ce­ment des don­nées. (voir à ce sujet les Lignes direc­tri­ces de l’ED­SA sur les mesu­res Schrems II et les les clau­ses con­trac­tu­el­les types actu­el­lesLe PFPDT est d’a­vis que la clau­se 14 exi­ge expli­ci­te­ment une appro­che fon­dée sur les pro­ba­bi­li­tés. a recon­nu). Cela s’ap­pli­que non seu­le­ment lorsqu’un accès via le CLOUD Act est envi­sa­gé, mais aus­si lorsque les don­nées sont stockées dans un pays ne dis­po­sant pas d’un niveau de pro­tec­tion adé­quat ou lorsqu’un tel accès est pos­si­ble. Il va de soi que le ris­que d’ac­cès est plus éle­vé lorsque les don­nées sont stockées sur place et qu’il n’y a pas qu’un accès pos­si­ble – ce sont tous des fac­teurs per­tin­ents dans le cad­re de l’ex­amen de la pro­ba­bi­li­té. Par ail­leurs, cela ne dit pas quel ris­que est enco­re accep­ta­ble – c’est l’in­sti­tu­ti­on con­cer­née qui en décide.

Dans ce con­tex­te, il est inté­res­sant de noter une remar­que à laquel­le pri­va­tim ne con­sacre – sciem­ment ? – n’ac­cor­de qu’u­ne note de bas de page :

Pour autant que Accès des auto­ri­tés sans infor­ma­ti­on de l’or­ga­ne public responsable est la seu­le façon de Pro­ba­bi­li­té d’oc­cur­rence non éva­luable (par­ce qu’el­les ne sont pas véri­fi­a­bles), de sor­te que l’ac­cent est mis sur l’am­pleur des dom­mages, où la qua­li­té des don­nées est sur­tout déter­mi­nan­te (don­nées per­son­nel­les sensibles).

Même si une infor­ma­ti­on est inter­di­te au four­nis­seur (par un “gag order”), on peut se deman­der quel­le est la pro­ba­bi­li­té que ce soit le cas. Le fait que l’ac­cès se fas­se en secret peutEnfin, l’ac­cès aux don­nées n’est pas l’ex­pres­si­on d’un système juri­di­que pro­blé­ma­tique, mais va de soi dans cer­ta­ins cas. Cela ne signi­fie pas que de tels accès ne sont pas sou­mis à des règles clai­res, ni qu’ils sont fré­quents, ni qu’un accès clan­de­stin est plus dom­ma­geable pour la per­son­ne con­cer­née qu’un accès ouvert, ni qu’il n’e­xi­ste pas du tout de chif­fres con­cer­nant de tels accès. Il est donc faux de dire que dans le cas d’un éven­tuel gag order, la pro­ba­bi­li­té d’oc­cur­rence ne pour­rait ou ne dev­rait pas être pri­se en comp­te. Elle peut tout au plus être éva­luée avec moins de cer­ti­tu­de, de sor­te que le ris­que cor­re­spond­ant peut être esti­mé un peu plus éle­vé en rai­son du man­que de pré­cis­i­on. Les four­nis­seurs d’ac­cès ont tou­te­fois sou­vent l’ob­li­ga­ti­on de prend­re des mesu­res juri­di­ques cont­re les accès des auto­ri­tés, même si le cli­ent ne peut pas don­ner d’ins­truc­tions cor­re­spond­an­tes par­ce qu’il n’en sait rien. Et là enco­re : le fait qu’u­ne don­née soit par­ti­cu­liè­re­ment digne de pro­tec­tion n’est pas déter­mi­nant dans le pré­sent contexte.

Le Droit de la pro­tec­tion du secret n’e­xi­ge par ail­leurs pas un ris­que zéro d’ac­cès des auto­ri­tés, du moins pas en règ­le géné­ra­le, com­me nous l’a­vons déjà indi­qué plus haut.

Confidentialité/protection du secret, cryp­ta­ge et gesti­on des clés

Recom­man­da­ti­ons privatim

  • Les don­nées doi­vent être cryp­tées, au moins en transit
  • les don­nées doi­vent être pro­té­gées de maniè­re adé­qua­te lors de leur trai­te­ment ultérieur
  • les don­nées per­son­nel­les sen­si­bles sont sou­mi­ses à des exi­gen­ces accrues : elles doi­vent être cryp­tées par l’or­ga­ne public et les clés ne doi­vent être dis­po­ni­bles que pour l’or­ga­ne public
  • un décryp­ta­ge chez le four­nis­seur sup­po­se que l’in­sti­tu­ti­on publi­que démont­re qu’il n’y a pas de “ris­ques inac­cep­ta­bles pour les droits fon­da­men­taux des per­son­nes con­cer­nées”. Le four­nis­seur ne peut tou­te­fois con­ser­ver les clés que s’il s’en­ga­ge à ne les uti­li­ser qu’a­vec l’ac­cord exprès de l’in­sti­tu­ti­on, et les accès doi­vent être consignés.
  • Les secrets ne peu­vent être ren­dus acce­s­si­bles au sou­mis­si­on­n­aire que dans la mesu­re où les dis­po­si­ti­ons rela­ti­ves au secret per­met­tent de fai­re appel à des auxi­li­ai­res et, le cas échéant, en respec­tant les con­di­ti­ons correspondantes.
  • la vio­la­ti­on inju­sti­fi­ée des règles de con­fi­den­tia­li­té doit être con­sidé­rée “com­me une limi­te juri­di­que à l’ex­ter­na­li­sa­ti­on et pas seu­le­ment com­me un risque”.

Notes

La distinc­tion ent­re don­nées per­son­nel­les nor­ma­les et don­nées per­son­nel­les sen­si­bles n’est pas non plus le critère appro­prié ici. Cela joue dans deux direc­tions : Il se peut que les mesu­res esqui­s­sées par pri­va­tim soi­ent éga­le­ment néces­saires pour des don­nées per­son­nel­les non sen­si­bles, et inver­se­ment, elles ne le sont pas tou­jours pour des don­nées per­son­nel­les sen­si­bles. Ce qui est déter­mi­nant, ce sont des réfle­xi­ons sur les ris­ques qui tien­nent comp­te de l’en­sem­ble des cir­con­stances et non la clas­si­fi­ca­ti­on abstrai­te de don­nées. En out­re, com­me pour tou­tes les mesu­res de sécu­ri­té, l’or­ga­ne public peut – doit – inté­grer des con­sidé­ra­ti­ons de praticabilité.

Pour les Secrets il est vrai que le secret en que­sti­on doit être inter­pré­té. La remar­que de pri­va­tim, selon laquel­le la vio­la­ti­on doit être com­pri­se com­me une limi­te et pas seu­le­ment com­me un ris­que, n’est tou­te­fois pas clai­re. Il est pos­si­ble que pri­va­tim veuille dire que l’or­ga­ne public doit empêcher une révé­la­ti­on objec­ti­ve­ment con­sti­tu­ti­ve d’u­ne infrac­tion et qu’il ne peut pas s’en tirer en disant que sub­jec­ti­ve­ment, il n’y a pas eu de fau­te. C’est cer­tes exact. Mais ce serait une con­clu­si­on cir­culai­re d’en dédui­re que l’é­tat de fait objec­tif exi­ge un ris­que zéro. Il faut plutôt par­tir du prin­ci­pe que Inté­rêt du secretDans la plu­part des cas, à l’ex­cep­ti­on peut-être des secrets d’É­tat pro­pre­ment dits, il ne s’a­gi­ra pas de moins, mais pas non plus de plus que de plus. des mesu­res de pro­tec­tion adé­qua­tes exi­ger de lui qu’il le fas­se. Tout ris­que rési­du­el de divul­ga­ti­on par le four­nis­seur à une auto­ri­té ne rend donc pas l’ex­ter­na­li­sa­ti­on vers le four­nis­seur illicite.

Don­nées sur les uti­li­sa­teurs des ser­vices en nuage

Recom­man­da­ti­ons privatim

  • Si un four­nis­seur génè­re des don­nées sur les uti­li­sa­teurs lors de l’uti­li­sa­ti­on du cloud (par ex. don­nées mar­gi­na­les, de télé­mé­trie ou de jour­na­li­sa­ti­on), cel­les-ci doi­vent être trai­tées avec le même soin que les don­nées com­mu­ni­quées. Elles doi­vent être sou­mi­ses aux mêmes dis­po­si­ti­ons con­trac­tu­el­les et le respect des droits des per­son­nes con­cer­nées ain­si que leur sup­pres­si­on doi­vent être garantis.
  • ces don­nées ne peu­vent être uti­li­sées qu’à des fins qui serai­ent éga­le­ment auto­ri­sées par l’in­sti­tu­ti­on publi­que, par exemp­le à des fins non personnelles
  • ces don­nées peu­vent être par­ti­cu­liè­re­ment sen­si­bles et sont alors sou­mi­ses aux direc­ti­ves correspondantes

Notes

Il est vrai que les don­nées second­ai­res doi­vent être trai­tées avec le même soin que les aut­res don­nées, mais cela signi­fie seu­le­ment que les mêmes critères doi­vent être appli­qués à l’éva­lua­ti­on des ris­ques, et non pas que ces don­nées second­ai­res doi­vent obli­ga­toire­ment être con­sidé­rées com­me néces­si­tant la même pro­tec­tion que les aut­res don­nées. Con­cer­nant les don­nées per­son­nel­les sen­si­bles, voir ci-des­sus. Par ail­leurs, il n’est pas exact de dire de maniè­re aus­si géné­ra­le qu’il exi­ste une don­née per­son­nel­le sen­si­ble lorsque des don­nées second­ai­res indi­quent “qu’u­ne per­son­ne con­cer­née se trouve dans un éta­blis­se­ment psych­ia­tri­que ou péni­ten­ti­ai­re”. Par ail­leurs, lorsque des don­nées second­ai­res sont uti­li­sées à des fins per­son­nel­les, le four­nis­seur n’est guè­re un sous-trai­tant, mais un responsable du traitement.

Rela­ti­ons de sous-trai­tance (sub­con­trac­ting)

Recom­man­da­ti­ons privatim

  • Avant la con­clu­si­on du cont­rat, le four­nis­seur doit divul­guer indi­vi­du­el­le­ment ses rela­ti­ons de sous-trai­tance de maniè­re à ce que l’in­sti­tu­ti­on pui­s­se éva­luer l’ad­mis­si­bi­li­té des trans­ferts de don­nées à l’étran­ger et les ris­ques encourus.
  • le cont­rat doit pré­cis­er com­ment le sou­mis­si­on­n­aire instruit et con­trô­le les sous-trai­tants et com­ment il trai­te par exemp­le les sous-traitants
  • Les sous-trai­tants pro­venant de pays ne dis­po­sant pas d’u­ne pro­tec­tion adé­qua­te doi­vent être exclus si cela ne peut pas être com­pen­sé effi­ca­ce­ment par un contrat.
  • pen­dant la durée du cont­rat, les modi­fi­ca­ti­ons doi­vent être noti­fi­ées et l’in­sti­tu­ti­on doit pou­voir mett­re fin au cont­rat si elle n’ac­cep­te pas un nou­veau sous-traitant

Notes

La que­sti­on de savoir quel­les infor­ma­ti­ons le four­nis­seur doit divul­guer sur les sous-trai­tants reste ouver­te. Mais l’in­sti­tu­ti­on doit au moins pou­voir éva­luer le ris­que que des auto­ri­tés étran­gè­res accè­dent à des don­nées de com­man­de. Elle peut tou­te­fois fai­re appel au four­nis­seur à cet effet, car en cas de trans­fert par un four­nis­seur éta­b­li dans un pays sûr à un sous-trai­tant éta­b­li dans un pays ne dis­po­sant pas d’un niveau de pro­tec­tion adé­quat, ce der­nier doit effec­tuer une ana­ly­se des ris­ques en matiè­re de pro­tec­tion des don­nées (par­ce qu’il est l’ex­porta­teur). L’in­sti­tu­ti­on peut se fier à cet­te ana­ly­se des ris­ques, mais elle doit éven­tu­el­le­ment – selon le pro­fil de ris­que des don­nées con­cer­nées – la con­naît­re et la reproduire.

Aut­res fac­teurs de risque

  • Mes­sa­gesLe four­nis­seur de ser­vices cloud doit signal­er les inci­dents de sécu­ri­té et les mesu­res cor­rec­ti­ves afin que celui-ci pui­s­se à son tour prend­re des mesu­res en temps utile.
  • Con­trô­leLe pre­sta­tai­re doit être tenu de pro­cé­der à des con­trô­les régu­liers du ser­vice et les rap­ports d’au­dit doi­vent être pré­sen­tés à l’in­sti­tu­ti­on et à l’au­to­ri­té de con­trô­le de la pro­tec­tion des don­nées com­pé­ten­te sur deman­de. Des audits par l’in­sti­tu­ti­on et l’au­to­ri­té de con­trô­le doi­vent éga­le­ment être possibles.
  • Mesu­res de sécu­ri­té de l’in­for­ma­ti­onL’in­sti­tu­ti­on doit con­naît­re les mesu­res de sécu­ri­té pri­ses par le pre­sta­tai­re de ser­vices et cel­les-ci doi­vent être appro­priées et, le cas échéant, certifiées.
  • Rési­lia­ti­on du cont­ratLe pro­ce­s­sus de rési­lia­ti­on doit être con­ve­nu (notam­ment le retour et la des­truc­tion des données).

Remar­ques finales

Dans l’en­sem­ble, l’im­pres­si­on qui se déga­ge est que pri­va­tim est le Éva­lua­ti­on des ris­ques par l’or­ga­ne com­pé­tent de l’in­sti­tu­ti­on publi­que et fixe donc des critères assez sché­ma­ti­ques. Il n’y a rien à red­ire à cela en soi. Mais si ces critères sont trop sché­ma­ti­ques, ils ne sou­ti­en­nent pas l’éva­lua­ti­on des ris­ques, mais la fau­ssent. C’est notam­ment le cas lorsque la caté­go­rie des don­nées per­son­nel­les par­ti­cu­liè­res devi­ent un fac­teur prin­ci­pal de la com­mu­ni­ca­ti­on à l’étran­ger, car le beso­in par­ti­cu­lier de pro­tec­tion de ces don­nées ne se réfè­re pas au ris­que d’ac­cès par les auto­ri­tés, mais plutôt à la pro­xi­mi­té de la per­son­na­li­té de ces don­nées. Or, il s’a­git là d’un critère trop abstrait pour une éva­lua­ti­on des ris­ques, d’autant plus que ce type de don­nées pré­sen­te pro­ba­blem­ent un inté­rêt infé­ri­eur à la moy­enne pour les auto­ri­tés étrangères.

Sur la que­sti­on de la Accep­t­ati­on des ris­ques Il en va de même : les décla­ra­ti­ons de pri­va­tim lais­sent entendre, du moins par end­roits, qu’il faut att­eind­re un ris­que zéro. Il est vrai que pri­va­tim n’est pas aus­si clair et que l’on trouve aus­si des décla­ra­ti­ons qui vont dans le sens con­trai­re (p. ex. au ch. 5 : “Cet­te ana­ly­se des ris­ques doit […] indi­quer les […] mesu­res per­met­tant d’ex­clu­re les ris­ques qui sont liés à l’uti­li­sa­ti­on de l’é­ner­gie nuclé­ai­re”). ou être rédui­tes à un niveau sup­port­a­ble„). Mais il serait faux d’e­xi­ger un ris­que zéro.. Il n’y a aucu­ne rai­son de con­sidé­rer que le ris­que d’ac­cès par une auto­ri­té étran­gè­re doit être réduit à zéro – un ris­que zéro n’est géné­ra­le­ment exi­gé nul­le part. En out­re, ce n’est pas l’au­to­ri­té de pro­tec­tion des don­nées qui doit prend­re une décis­i­on d’ac­cep­t­ati­on des ris­ques, mais l’or­ga­ne exé­cu­tif com­pé­tent (ce que pri­va­tim stipu­le éga­le­ment ; mais si pri­va­tim exi­ge un ris­que zéro, la décis­i­on d’ac­cep­t­ati­on des ris­ques est de fac­to interdite).