Ven­te à emporter (AI)
  • Le règle­ment IA éta­blit des règles har­mo­ni­sées de l’UE pour les systè­mes d’IA, avec un champ d’ap­pli­ca­ti­on défi­ni et une liste tech­ni­que à l’an­ne­xe I. Il s’a­git d’un instru­ment de con­trô­le de l’ap­pli­ca­ti­on des règles de l’UE.
  • Cer­tai­nes pra­ti­ques sont inter­di­tes (par exemp­le, influence incon­sci­en­te, per­son­nes vul­né­ra­bles, scoring social) ; la mise sur le mar­ché de tels systè­mes est interdite.
  • L’IA à haut ris­que est sou­mi­se à des exi­gen­ces stric­tes, à des con­trô­les de con­for­mi­té, à une sur­veil­lan­ce humaine, à des obli­ga­ti­ons de mar­ché ain­si qu’à une sur­veil­lan­ce gou­ver­ne­men­ta­le et à des sanc­tions élevées.

Pro­jet de règlement

En avril 2021, la Com­mis­si­on euro­pé­en­ne avait pré­sen­té un pro­jet de règle­ment éta­blis­sant des règles har­mo­ni­sées en matiè­re d’in­tel­li­gence arti­fi­ci­el­le (Règle­ment AI). Le pro­jet est actu­el­le­ment en dis­cus­sion au Par­le­ment européen.

Champ d’ap­pli­ca­ti­on

Le règle­ment régle­men­te les systè­mes d’IA. La pré­si­dence slo­vè­ne a pré­sen­té le 29 novembre 2021 un Tex­te de com­pro­mis et y a notam­ment com­plé­té l’ob­jet et le champ d’ap­pli­ca­ti­on et adap­té des défi­ni­ti­ons. La noti­on de “système d’IA” a notam­ment été modi­fi­ée. Le fait qu’un système fonc­tion­ne de maniè­re auto­no­me ou en tant que com­po­sant d’un pro­duit n’est pas déter­mi­nant. Un système d’IA est désor­mais défi­ni comme

Un ’système d’in­tel­li­gence arti­fi­ci­el­le’ (AI system) est un système qui

(i) reçoit des infor­ma­ti­ons basées sur la machi­ne et/ou l’hom­me don­nées et entrées,

(ii) expli­que com­ment réa­li­ser un ensem­ble don­né d’ob­jec­tifs défi­nis par l’hom­me en uti­li­sant l’app­ren­tis­sa­ge, le rai­son­ne­ment ou la modé­li­sa­ti­on mis en œuvre avec les tech­ni­ques et les appro­ches énu­mé­rées dans Anne­xe I, et

(iii) géné­ré out­puts sous la for­me de con­te­nus (systè­mes d’IA géné­ra­tifs), de pré­dic­tions, de recom­man­da­ti­ons ou de décis­i­ons qui influen­cent les envi­ron­ne­ments avec les­quels il interagit ;

L’an­ne­xe I con­ti­ent une Liste des tech­no­lo­gies d’IA cou­ver­tes:

(a) App­ren­tis­sa­ge auto­ma­tique appro­ches, y com­pris l’app­ren­tis­sa­ge super­vi­sé, non super­vi­sé et par ren­force­ment, en uti­li­sant une gran­de varié­té de métho­des, y com­pris l’app­ren­tis­sa­ge en profondeur ;

(b) Appro­ches basées sur la logi­que et les con­nais­sancesLes con­nais­sances sur les systè­mes d’in­for­ma­ti­on, y com­pris la repré­sen­ta­ti­on des con­nais­sances, la pro­gram­ma­ti­on induc­ti­ve (logi­que), les bases de con­nais­sances, l’in­fé­rence et les moteurs de déduc­tion, le rai­son­ne­ment (sym­bo­li­que) et les systè­mes experts ;

(c) Appro­ches sta­ti­sti­ques, esti­ma­ti­on bay­é­si­en­ne, métho­des de recher­che et d’optimisation.

Dans d’un point de vue spa­ti­al le règle­ment IA s’ap­pli­que non seu­le­ment aux uti­li­sa­teurs et aux four­nis­seurs étab­lis dans l’UE, mais aus­si à la mise sur le mar­ché de systè­mes d’IA ou de pro­duits uti­li­sant un système d’IA dans l’UE, ain­si qu’aux four­nis­seurs et aux uti­li­sa­teurs de systè­mes d’IA, dans la mesu­re où les résul­tats géné­rés par ces systè­mes sont uti­li­sés dans l’UE. Les con­sidé­rants 10 et 11 con­ti­en­nent des expli­ca­ti­ons sup­p­lé­men­tai­res à ce sujet.

Pra­ti­ques inter­di­tes (liste noire)

Le règle­ment pré­voit un Inter­dic­tion de cer­tai­nes uti­li­sa­ti­ons par­ti­cu­liè­re­ment ris­quées ou éthi­quement dis­cuta­bles de l’in­tel­li­gence arti­fi­ci­el­le (“pra­ti­ques inter­di­tes”), par exemp­le leur utilisation

  • à une influence qui agit inconsciemment,
  • con­cer­ne des per­son­nes qui sont par­ti­cu­liè­re­ment vulnérables
  • peu­vent être uti­li­sées pour clas­ser la fia­bi­li­té des per­son­nes en fonc­tion de leur appar­ten­an­ce socia­le ou de leur com­porte­ment dans la socié­té (scoring social).

Dans cet­te mesu­re, ce n’est pas seu­le­ment l’uti­li­sa­ti­on de systè­mes d’IA qui est inter­di­te, mais déjà la mise sur le mar­ché de systè­mes cor­re­spond­ants. Il s’a­git d’un aut­re exemp­le de la Pro­tec­tion en amont dans le droit des don­néesLa Com­mis­si­on euro­pé­en­ne a adop­té une posi­ti­on com­mu­ne sur la que­sti­on de la pro­tec­tion des don­nées, qui peut être obser­vée ail­leurs (par exemp­le, en ce qui con­cer­ne l’ob­li­ga­ti­on d’ef­fec­tuer des ana­ly­ses d’im­pact, le prin­ci­pe de pri­va­cy by design et la pré­somp­ti­on d’att­ein­te à la vie pri­vée même en cas de vio­la­ti­on nég­li­geable des prin­cipes de traitement).

Systè­mes à haut risque

Le règle­ment exi­ge éga­le­ment, sous cer­tai­nes con­di­ti­ons, une Clas­si­fi­ca­ti­on des systè­mes d’IA com­me systè­mes à haut ris­que (selon l’an­ne­xe III de l’or­don­nan­ce), ce qui ent­raî­ne des exi­gen­ces par­ti­cu­liè­res pour le système lui-même. Les systè­mes sont con­sidé­rés com­me à haut ris­que en rai­son de la tech­no­lo­gie uti­li­sée et de leur uti­li­sa­ti­on dans cer­ta­ins sec­teurs. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont par exemp­le con­sidé­rés com­me des systè­mes à haut ris­que dans les domain­es d’ap­pli­ca­ti­on suivants :

  • l’i­den­ti­fi­ca­ti­on bio­mé­tri­que sans con­sen­te­ment (on peut ima­gi­ner ici l’im­portance que prend l’ef­fi­ca­ci­té du con­sen­te­ment à l’i­den­ti­fi­ca­ti­on bio­mé­tri­que lorsque cel­le-ci repo­se sur l’IA) ;
  • Com­po­sant de sécu­ri­té dans la gesti­on du tra­fic, l’ap­pro­vi­si­on­ne­ment en éner­gie, l’in­fras­truc­tu­re numé­ri­que ou le con­trô­le des émissions ;
  • Con­trô­le d’ac­cès lors des examens ;
  • Examens de candidature ;
  • Con­trô­le de l’ac­cès à cer­ta­ins services ;
  • Appli­ca­ti­on de la loi.

Ces systè­mes doi­vent être sou­mis à des pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té avant d’êt­re mis sur le mar­ché dans l’UE. De même, les exi­gen­ces en matiè­re de docu­men­ta­ti­on et d’in­for­ma­ti­on des uti­li­sa­teurs sont plus éle­vées et une “super­vi­si­on humaine” doit être assu­rée – un aut­re exemp­le d’é­lé­ment humain obli­ga­toire pour les systè­mes auto­ma­ti­sés, qui rap­pel­le les droits des per­son­nes con­cer­nées dans le cas de décis­i­ons indi­vi­du­el­les auto­ma­ti­sées. Tous les mem­bres de la chaî­ne de valeur – four­nis­seurs, impor­ta­teurs, dis­tri­bu­teurs et uti­li­sa­teurs – de systè­mes à haut ris­que ont éga­le­ment des obli­ga­ti­ons spé­ci­fi­ques, y com­pris des exi­gen­ces de sur­veil­lan­ce du marché.

Auto­ri­tés et sanctions

De plus, des auto­ri­tés sont créées :

  • États mem­bres doi­vent éta­b­lir des auto­ri­tés natio­na­les com­pé­ten­tes ou dési­gner des auto­ri­tés existantes ;
  • un Comi­té euro­pé­en sur l’in­tel­li­gence arti­fi­ci­el­le qui con­seil­le la Com­mis­si­on européenne.

La con­for­mi­té est assu­rée par Sanc­tions, qui peu­vent aller, dans les cas extrê­mes, jus­qu’à 6% du chif­fre d’af­fai­res ou 30 mil­li­ons d’euros.