La Con­fé­rence alle­man­de sur la pro­tec­tion des don­nées, la con­fé­rence des auto­ri­tés indé­pen­dan­tes de con­trô­le de la pro­tec­tion des don­nées de l’É­tat fédé­ral et des Län­der, a publié un gui­de d’o­ri­en­ta­ti­on “Intel­li­gence arti­fi­ci­el­le et pro­tec­tion des don­nées” (Ver­si­on 1.0 du 6 mai 2024 – que l’o­ri­en­ta­ti­on sera adap­tée à l’a­ve­nir, est expli­ci­te­ment mentionnée).

L’ai­de à l’o­ri­en­ta­ti­on (OH) se con­cent­re sur IA géné­ra­ti­ve et s’adres­se avant tout aux ResponsableLes aut­res fonc­tions, tel­les que les déve­lo­p­peurs, les fab­ri­cants et les four­nis­seurs, ne sont qu’in­di­rec­te­ment concernées.

L’OH pas­se en revue les exi­gen­ces habi­tu­el­les en matiè­re de pro­tec­tion des don­nées et fait la distinc­tion ent­re la con­cep­ti­on de l’uti­li­sa­ti­on et la sélec­tion des appli­ca­ti­ons d’IA, leur mise en œuvre et leur uti­li­sa­ti­on. Les expli­ca­ti­ons se recou­pent tou­te­fois ; cer­tai­nes indi­ca­ti­ons rela­ti­ves à la pha­se de con­cep­ti­on con­cer­nent par exemp­le éga­le­ment la pha­se d’uti­li­sa­ti­on. Les points sui­vants méri­tent d’êt­re soulignés :

Pha­se de conception

  • L’OH met ici l’ac­cent sur un examen de la maniè­re dont le modè­le doit être uti­li­sé et dans quel but – l’OH s’op­po­se donc ici avant tout à l’a­ve­ugle­ment, peut-être par curio­si­té ou dans l’e­s­poir de vagues avan­ta­ges. Dans la mesu­re du pos­si­ble, les respons­ables doi­vent renon­cer à l’uti­li­sa­ti­on de don­nées per­son­nel­les. Mais com­me la noti­on de don­nées per­son­nel­les est lar­ge, les respons­ables ne peu­vent pas espé­rer trop vite ne pas tom­ber dans le champ d’ap­pli­ca­ti­on de la légis­la­ti­on sur la pro­tec­tion des données.
  • Sur LLMs la CCPD fait remar­quer qu’un trai­te­ment de don­nées per­son­nel­les peut aus­si rési­der dans le fait que le modè­le lui-même con­ti­ent des don­nées per­son­nel­les. Il n’est tou­te­fois pas clair dans quel­le mesu­re cela doit rele­ver de la responsa­bi­li­té du responsable.
  • En réfé­rence à la For­ma­ti­on le responsable doit se deman­der si des err­eurs com­mi­ses lors de l’en­traî­ne­ment peu­vent avoir un impact sur un trai­te­ment de don­nées propre.
  • Une pro­pre Base juri­di­que (à ce sujet, l’OH ren­voie à un Docu­ment de l’au­to­ri­té de pro­tec­tion des don­nées du Bade-Wurt­em­berg) serait néces­saire lorsque des don­nées per­son­nel­les sont uti­li­sées à des fins d’en­traî­ne­ment ; même si le responsable uti­li­se un système tiers qui con­ti­n­ue à être ent­raî­né par des saisies ;
  • Règles de con­fi­den­tia­li­té peu­vent être applicables ;
  • Les obli­ga­ti­ons d’in­for­ma­ti­on et de trans­pa­rence doi­vent être respec­tées. Dans la mesu­re où une décis­i­on indi­vi­du­el­le auto­ma­ti­sée est pri­se, le responsable doit, ent­re aut­res, être infor­mé de La “logi­que” de la décis­i­on infor­mer les uti­li­sa­teurs. Selon l’OH, cela signi­fie une “expli­ca­ti­on de la métho­de de trai­te­ment des don­nées en rap­port avec le fonc­tion­ne­ment du dérou­le­ment du pro­gram­me dans le con­tex­te de l’ap­pli­ca­ti­on con­crè­te”. Les “visua­li­sa­ti­ons et les tech­ni­ques inter­ac­ti­ves” peu­vent aider à “rame­ner la com­ple­xi­té de la logi­que à un niveau compréhensible” ;
  • Droits des per­son­nes con­cer­néesUn modè­le d’IA doit être en mesu­re de cor­ri­ger des don­nées per­son­nel­les incor­rec­tes, par exemp­le par le biais d’un post-ent­raî­ne­ment ou d’un rég­la­ge fin. En ce qui con­cer­ne le droit de sup­pres­si­on, un filt­re de sor­tie n’est pas suf­fi­sant en soi, mais ils con­sti­tu­ent tout de même une “con­tri­bu­ti­on”.

Mise en œuvre

Pour la pha­se de mise en œuvre, l’OH reti­ent notam­ment les points suivants :

  • Le four­nis­seur tiers du système est en géné­ral un sous-trai­tant. Une responsa­bi­li­té par­ta­gée est tou­te­fois envi­sa­geable si

    un Appli­ca­ti­on d’IA ali­men­tée ou ent­raî­née avec dif­fér­ents ensem­bles de don­nées ou sur la pla­te-for­me d’un orga­nis­me, leur appli­ca­ti­on d’IA d’aut­res orga­nis­mes évo­lué vers de nou­vel­les appli­ca­ti­ons d’IA est en cours. Il n’est pas néces­saire que le responsable ait effec­ti­ve­ment accès aux don­nées trai­tées pour être qua­li­fié de responsable conjoint.

  • La com­mu­ni­ca­ti­on de don­nées per­son­nel­les ent­re respons­ables con­joints exi­ge une base juri­di­que pro­pre, cet­te rela­ti­on n’est donc pas pri­vilé­giée en ce sens (ce qui res­sort éga­le­ment de la juris­pru­dence de la CJCE).
  • Sur le site inter­ne Les respons­ables doi­vent défi­nir des règles clai­res sur la maniè­re dont les col­la­bo­ra­teurs doi­vent ou peu­vent uti­li­ser les appli­ca­ti­ons d’IA. En out­re, les col­la­bo­ra­teurs doi­vent dis­po­ser de leurs pro­pres outils de tra­vail et de leurs pro­pres comp­tes, avec des comp­tes non ver­rouill­ables (par ex. une adres­se e‑mail fonctionnelle).
  • Pour les appli­ca­ti­ons d’IA, une ana­ly­se d’im­pact sur la pro­tec­tion des don­nées (DSFA) est néces­saire. Le site “black list” de DSK pré­voit éga­le­ment qu’u­ne AIPD est obli­ga­toire en cas d’uti­li­sa­ti­on de l’IA pour “gérer l’in­ter­ac­tion avec les per­son­nes con­cer­nées ou éva­luer des aspects per­son­nels de la per­son­ne con­cer­née”, si des don­nées per­son­nel­les sont trai­tées dans ce cad­re (par ex. dans le cas d’u­ne ana­ly­se de sen­ti­ments d’un cent­re d’ap­pel ou d’un chat­bot qui “inter­agit avec les cli­ents par le biais de la con­ver­sa­ti­on” et qui uti­li­se des don­nées per­son­nel­les pour les conseiller).

Uti­li­sa­ti­on d’ap­pli­ca­ti­ons d’IA

Lors de l’uti­li­sa­ti­on, les respons­ables doi­vent notam­ment limi­ter au maxi­mum la sai­sie de don­nées per­son­nel­les. Dans la mesu­re où une IA génè­re une don­née per­son­nel­le, il con­vi­ent éga­le­ment d’é­ta­b­lir une décla­ra­ti­on de con­fi­den­tia­li­té. Base juri­di­que est néces­saire, c’est-à-dire lorsque l’uti­li­sa­teur attri­bue une sor­tie à une per­son­ne spé­ci­fi­que. L’exemp­le de l’OH est une pro­po­si­ti­on de com­po­si­ti­on de joueurs pour un ent­raî­neur de football.

Les résul­tats de l’IA doi­vent ensuite être véri­fi­és en ter­mes de Exac­ti­tu­de être exami­nés s’ils font réfé­rence à des per­son­nes, et ces résul­tats ne doi­vent pas être de maniè­re non dis­cri­mi­na­toire peu­vent être utilisés.