Ven­te à emporter (AI)
  • La Com­mis­si­on euro­pé­en­ne pro­po­se une nou­vel­le direc­ti­ve sur la responsa­bi­li­té du fait des pro­duits qui rem­pla­cera la PLD et moder­ni­s­e­ra les aspects de la responsa­bi­li­té liés à l’IA.
  • Les systè­mes d’IA et les pro­duits com­pa­ti­bles avec l’IA sont expres­sé­ment con­sidé­rés com­me des “pro­duits”, afin que la responsa­bi­li­té sans fau­te pui­s­se s’ap­pli­quer en cas de dommages.
  • La responsa­bi­li­té s’é­tend aux pre­sta­tai­res de ser­vices maté­ri­els, logi­ciels et numé­ri­ques, ain­si qu’aux mises à jour des fab­ri­cants et aux modi­fi­ca­ti­ons des pro­duits liées à l’apprentissage.
  • La char­ge de la preuve est allé­gée dans les cas com­ple­xes ; le cad­re régle­men­tai­re suit une appro­che basée sur les ris­ques au niveau euro­pé­en et international.

Le 28 sep­tembre 2022, la Com­mis­si­on euro­pé­en­ne a pro­po­sé de moder­ni­s­er les règles rela­ti­ves à la responsa­bi­li­té du fait des pro­duits et d’har­mo­ni­s­er les règles de responsa­bi­li­té en matiè­re d’in­tel­li­gence arti­fi­ci­el­le. Le pre­mier point con­cer­ne la Pro­po­si­ti­on d’u­ne nou­vel­le direc­ti­ve sur la responsa­bi­li­té du fait des pro­duitsqui a fait de l’ac­tu­el­le Direc­ti­ve 85/374/CEE (“Pro­duct Lia­bi­li­ty Direc­ti­ve” ou PLD) (c’est sur la PLD que repo­se la LRFP sui­s­se). La pro­po­si­ti­on a N° 2022/0302 (COD) et n’est dis­po­ni­ble qu’en anglais.

La nou­vel­le direc­ti­ve ne con­cer­ne pas uni­quement l’IA, mais elle y accor­de une gran­de importance, notam­ment en répon­se aux recom­man­da­ti­ons pré­ci­tées du Par­le­ment euro­pé­en. Elle agit sur les prin­ci­paux leviers de la responsa­bi­li­té, notam­ment par le biais de Cla­ri­fi­ca­ti­ons de la noti­on de pro­duit:

cet­te pro­po­si­ti­on con­fir­me que les systè­mes IA et les biens dotés d’IA sont des “pro­duits” et ent­rent donc dans le champ d’ap­pli­ca­ti­on du PLD, ce qui signi­fie que l’in­dem­ni­sa­ti­on est dis­po­ni­ble lorsque l’IA défec­tueu­se cau­se des dom­mages, sans que la per­son­ne bles­sée ait à prou­ver la fau­te du fab­ri­cant, com­me pour tout aut­re pro­duit. Deu­xiè­me­ment, la pro­po­si­ti­on pré­cise que non seu­le­ment les fab­ri­cants de maté­ri­el mais aus­si les four­nis­seurs de logi­ciels et les four­nis­seurs de ser­vices numé­ri­ques qui affec­tent la façon dont le pro­duit fonc­tion­ne (com­me un ser­vice de navi­ga­ti­on dans un véhi­cu­le auto­no­me) peu­vent être tenus pour respons­ables. Troi­siè­me­ment, la pro­po­si­ti­on garan­tit que les fab­ri­cants peu­vent être tenus respons­ables des modi­fi­ca­ti­ons qu’ils apportent aux pro­duits qu’ils ont déjà mis sur le mar­ché, y com­pris lorsque ces modi­fi­ca­ti­ons sont déclen­chées par des mises à jour logi­ciel­les ou l’app­ren­tis­sa­ge automatique.

Mais aus­si les Char­ge de la preuve doit être facilitée :

Qua­triè­me­ment, le PLD révi­sé allè­ge le far­deau de la preuve dans les cas com­ple­xes, qui pour­rai­ent inclu­re cer­ta­ins cas impli­quant des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, et lorsque les pro­duits ne par­vi­en­nent pas à se con­for­mer aux exi­gen­ces de sécurité.

Que le Le cad­re de responsa­bi­li­té pour l’IA doit être déve­lo­p­péétait déjà une atti­tu­de répan­due depuis long­temps – voir par exemp­le le Rap­port de la Com­mis­si­on “sur l’im­pact de l’in­tel­li­gence arti­fi­ci­el­le, de l’in­ter­net des objets et de la robo­tique en ter­mes de sécu­ri­té et de responsa­bi­li­té” du 19 février 2020, le plus détail­lé Rap­port de l’Ex­pert Group on Lia­bi­li­ty and New Tech­no­lo­gies – New Tech­no­lo­gies For­ma­ti­on de 2019 et les Recom­man­da­ti­ons du Par­le­ment à la Com­mis­si­on con­cer­nant un régime de responsa­bi­li­té civi­le pour l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le du 20 octobre 2020.

Le ren­force­ment de la responsa­bi­li­té s’en­tend ici com­me faisant par­tie du cad­re juri­di­que élar­gi de l’in­tel­li­gence arti­fi­ci­el­le. Le site Appro­che euro­pé­en­ne de l’in­tel­li­gence arti­fi­ci­el­le” (“Euro­pean Approach for Arti­fi­ci­al Intel­li­gence”) est en déve­lo­p­pe­ment depuis plus de quat­re ans :

  • 25.4.2018La Com­mis­si­on euro­pé­en­ne pré­sen­te une Stra­té­gie euro­pé­en­ne en matiè­re d’IA avant (COM(2018) 237 final):

    Con­clu­si­onL’UE pos­sè­de une base sci­en­ti­fi­que et indu­stri­el­le soli­de avec des labo­ra­toires de recher­che et des uni­ver­si­tés de pre­mier plan. Elle a en out­re un lea­der­ship recon­nu dans le domaine de la robo­tique et dis­po­se de start-ups inno­van­tes. En out­re, l’U­ni­on dis­po­se d’un cad­re juri­di­que com­plet qui pro­tège les con­som­ma­teurs tout en encou­ra­geant l’in­no­va­ti­on, et elle pro­gres­se dans la créa­ti­on d’un mar­ché uni­que numé­ri­que. Les prin­ci­pa­les con­di­ti­ons sont donc réunies pour que l’UE pui­s­se jouer un rôle de pre­mier plan dans la révo­lu­ti­on de l’IA, de maniè­re auto­no­me et sur la base de ses valeurs.

    L’appro­che de l’IA décri­te dans le pré­sent docu­ment indi­que la direc­tion à sui­v­re et souli­gne la néces­si­té d’u­nir les forces au niveau euro­pé­en afin de garan­tir que tous les Euro­pé­ens par­ti­ci­pent au chan­ge­ment numé­ri­que, que des res­sour­ces adé­qua­tes soi­ent all­o­uées à l’IA et que les valeurs et les droits fon­da­men­taux de l’U­ni­on soi­ent au pre­mier plan dans le pay­sa­ge de l’IA.

    Ensem­ble, nous pou­vons mett­re la puis­sance de l’IA au ser­vice du pro­grès humain.

  • 7.12.2018: La Com­mis­si­on euro­pé­en­ne pré­sen­te le Plan coor­don­né pour l’in­tel­li­gence arti­fi­ci­el­le avant (COM(2018) 795 final):

    Con­clu­si­ons:

    L’in­tel­li­gence arti­fi­ci­el­le (IA) fait déjà par­tie de not­re quo­ti­di­en, mais son poten­tiel est bien plus grand que ce que nous avons vu jus­qu’à pré­sent. Pour deve­nir un acteur de pre­mier plan dans le domaine de l’IA, l’Eu­ro­pe doit s’ap­puy­er sur ses points forts et sou­te­nir le déve­lo­p­pe­ment d’u­ne IA éthi­que, sûre et de poin­te sur son territoire.

    La Com­mis­si­on invi­te donc
    – le Con­seil euro­pé­en à approu­ver le plan coordonné ;
    – les États mem­bres à mett­re en œuvre le plan coor­don­né et à éla­bo­rer, d’i­ci la mi-2019, des stra­té­gies natio­na­les en matiè­re d’IA don­nant un aper­çu du niveau d’in­ve­stis­se­ment et des mesu­res de mise en œuvre ;
    – les deux légis­la­teurs à adop­ter rapi­de­ment les initia­ti­ves légis­la­ti­ves restan­tes, qui sont indis­pens­ables à la réus­si­te de la stra­té­gie euro­pé­en­ne en matiè­re d’IA, ain­si que les pro­po­si­ti­ons pré­sen­tées dans le con­tex­te du pro­chain cad­re finan­cier pluriannuel.

  • 19.2.2020: La Com­mis­si­on euro­pé­en­ne pré­sen­te le “Liv­re blanc sur l’in­tel­li­gence arti­fi­ci­el­le – une appro­che euro­pé­en­ne de l’ex­cel­lence et de la con­fi­ance” avant (COM(2020) 65 final):

    Con­clu­si­on :

    L’IA est une tech­no­lo­gie stra­té­gique qui off­re de nombreux avan­ta­ges aux citoy­ens, aux ent­re­pri­ses et à la socié­té dans son ensem­ble, à con­di­ti­on qu’el­le soit cen­trée sur l’êt­re humain, éthi­que, dura­ble et respec­tueu­se des droits et valeurs fondamentaux. […] […] 

    L’appro­che euro­pé­en­ne de l’IA vise à pro­mou­voir la capa­ci­té d’in­no­va­ti­on de l’Eu­ro­pe dans le domaine de l’IA tout en encou­ra­geant le déve­lo­p­pe­ment et l’ad­op­ti­on d’u­ne IA éthi­que et digne de con­fi­ance dans l’en­sem­ble de l’é­co­no­mie de l’UE. L’IA dev­rait être au ser­vice des per­son­nes et con­sti­tuer une force posi­ti­ve pour la société.

    Avec le pré­sent liv­re blanc et le rap­port sur le cad­re de sécu­ri­té et de responsa­bi­li­té qui l’ac­com­pa­gne, la Com­mis­si­on lan­ce une vaste con­sul­ta­ti­on de la socié­té civi­le, de l’in­du­strie et de la com­mun­au­té sci­en­ti­fi­que dans les États mem­bres sur des pro­po­si­ti­ons con­crè­tes pour une appro­che euro­pé­en­ne de l’IA. Cela inclut à la fois des moy­ens poli­ti­ques pour sti­mu­ler l’in­ve­stis­se­ment dans la recher­che et l’in­no­va­ti­on, encou­ra­ger le déve­lo­p­pe­ment des com­pé­ten­ces et l’ad­op­ti­on de l’IA par les PME, et des pro­po­si­ti­ons d’é­lé­ments clés d’un futur cad­re régle­men­tai­re. Cet­te con­sul­ta­ti­on per­mettra un dia­lo­gue appro­fon­di avec tou­tes les par­ties con­cer­nées, qui con­tri­buera à façon­ner les pro­chai­nes étapes de la Commission.

  • 21 avril 2021: La Com­mis­si­on euro­pé­en­ne pré­sen­te le Pro­jet de règle­ment sur l’IA avant.

La que­sti­on de la responsa­bi­li­té dans le con­tex­te de l’in­tel­li­gence arti­fi­ci­el­le est éga­le­ment dis­cu­tée en Sui­s­se, par exemp­le par Melin­da Loh­mann ou Nad­ja Braun Bin­der et al.

Au niveau inter­na­tio­nal, divers efforts sont en cours pour régle­men­ter l’IA, out­re le pro­jet d’AI Act de l’UE, notam­ment dans le cad­re du Con­seil de l’Eu­ro­pe (on trou­ve­ra des indi­ca­ti­ons sur les efforts cor­re­spond­ants dans le rap­port du DFAE au Con­seil fédé­ral “Intel­li­gence arti­fi­ci­el­le et cad­re régle­men­tai­re inter­na­tio­nal” du 13 avril 2022).

Le site CAI – Comi­té sur l’in­tel­li­gence arti­fi­ci­el­le du Con­seil de l’Eu­ro­pe suc­cè­de au Comi­té ad hoc du Con­seil de l’Eu­ro­pe sur l’in­tel­li­gence arti­fi­ci­el­le, qui sera créé en 2019 (CAHAI), qui doit ter­mi­ner ses travaux en décembre 2021 avec le rap­port “Pos­si­ble ele­ments of a legal frame­work on arti­fi­ci­al intel­li­gence, based on the Coun­cil of Europe’s stan­dards on human rights, demo­cra­cy and the rule of law“qui avait été con­clu. Le CAI a pour mis­si­on prin­ci­pa­le de pro­po­ser un cad­re juri­di­que mul­ti­la­té­ral con­traignant pour l’IA.

Un pre­mier jet (zero draft) d’u­ne Con­ven­ti­on du Con­seil de l’Eu­ro­pe sur l’in­tel­li­gence arti­fi­ci­el­le, les droits de l’hom­me, la démo­cra­tie et le respect de la loi a été dis­cu­té il y a deux semain­es dans le cad­re du CAI. Le pro­jet n’est pas public, mais il doit con­te­nir ou rég­ler les points sui­vants (selon le docu­ment cor­re­spond­ant Man­dat de négo­cia­ti­on de l’UE):

  • le but et le champ d’ap­pli­ca­ti­on de la con­ven­ti­on (cad­re) ; les défi­ni­ti­ons d’un système IA, du cycle de vie, du four­nis­seur, de l’uti­li­sa­teur et du ’sujet IA
  • cer­ta­ins prin­cipes fon­da­men­taux, y com­pris les garan­ties pro­cé­du­ra­les et les droits des sujets IA, qui s’ap­pli­quer­ai­ent à tous les systè­mes IA, quel que soit leur niveau de risque
  • des mesu­res sup­p­lé­men­tai­res pour le sec­teur public ain­si que pour les systè­mes d’IA pré­sen­tant des niveaux de ris­que “inac­cep­ta­bles” et “signi­fi­ca­tifs” iden­ti­fi­és sur la base d’u­ne métho­do­lo­gie d’éva­lua­ti­on des ris­ques et des impacts (à pré­cis­er ulté­ri­eu­re­ment dans une anne­xe à la convention)
  • méca­nis­me de sui­vi et de coopé­ra­ti­on ent­re les parties
  • des dis­po­si­ti­ons fina­les, y com­pris une pos­si­bi­li­té pour les États mem­bres de l’UE d’ap­pli­quer le droit de l’UE dans leurs rela­ti­ons mutu­el­les pour les matiè­res cou­ver­tes par la con­ven­ti­on et une pos­si­bi­li­té pour l’U­ni­on d’ac­cé­der à la convention.

La Sui­s­se par­ti­ci­pe­ra éga­le­ment aux négo­cia­ti­ons en vue d’u­ne tel­le con­ven­ti­on, com­me l’in­di­que le Con­seil fédé­ral a déci­dé en sep­tembre 2022.

Au cœur de tous ces efforts de régle­men­ta­ti­on se trouve une clas­si­fi­ca­ti­on des ris­ques liés à l’uti­li­sa­ti­on de l’IA et une régle­men­ta­ti­on basée sur les ris­ques allant de l’in­ter­dic­tion à l’in­ter­dic­tion, com­me le pré­voit éga­le­ment le pro­jet de règle­ment sur l’IA.