Ven­te à emporter (AI)
  • Le Par­le­ment euro­pé­en a adop­té un tex­te de com­pro­mis sur l’AI Act fin mai/début juin 2023 ; le vote en plé­niè­re aura lieu mi-juin et sera sui­vi de négo­cia­ti­ons en trilogue.
  • Appro­che basée sur le ris­que : l’IA est caté­go­ri­sée en fonc­tion du ris­que (inter­di­te, à haut ris­que, limitée/pas de ris­que) avec des obli­ga­ti­ons stric­tes pour les systè­mes à haut risque.
  • Con­sé­quen­ces éten­dues, y com­pris des péna­li­tés jus­qu’à 30 mil­li­ons d’eu­ros ou 6% de chif­fre d’af­fai­res annu­el et effet extra­ter­ri­to­ri­al sur les four­nis­seurs suisses.

Dans de l’UE, la pro­cé­du­re légis­la­ti­ve rela­ti­ve à l’ ”Arti­fi­ci­al Intel­li­gence Act” (“AI Act” ou “règle­ment sur l’IA”) se trouve dans la der­niè­re ligne droi­te après des mois d’in­ten­ses négo­cia­ti­ons. Les deux com­mis­si­ons com­pé­ten­tes (IMCO et LIBE) du Par­le­ment euro­pé­en ont voté, lors du vote du 11 mai 2023, sur le Tex­te de com­pro­mis sont par­ve­nus à un accord poli­tique sur le pre­mier ensem­ble de règles au mon­de en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, après qu’un accord pro­vi­so­i­re a déjà pu être trou­vé fin avril 2023 au sein des deux com­mis­si­ons. Le pro­jet actuel sera main­tenant sou­mis au vote en séan­ce plé­niè­re du Par­le­ment euro­pé­en à la mi-juin (14 juin). Les négo­cia­ti­ons en tri­lo­gue ent­re le Par­le­ment, le Con­seil et la Com­mis­si­on débu­te­ront ensuite.

Situa­ti­on de départ

L’AI Act est un pro­jet de loi de la Com­mis­si­on euro­pé­en­ne visa­nt à régle­men­ter l’in­tel­li­gence arti­fi­ci­el­le (IA). Elle a adop­té le Le Con­seil euro­pé­en des 20 et 21 avril 2021 sera le pre­mier légis­la­teur à pré­sen­ter une pro­po­si­ti­on com­plè­te de régle­men­ta­ti­on de l’IA.. Avec ce pro­jet de loi, l’UE ten­te de trou­ver un équi­lib­re. En effet, d’u­ne part, l’AI Act doit garan­tir que les per­son­nes con­cer­nées ne subis­sent aucun pré­ju­di­ce du fait de l’uti­li­sa­ti­on de systè­mes d’IA, et d’aut­re part, le nou­veau règle­ment doit con­tin­uer à encou­ra­ger l’in­no­va­ti­on et à don­ner le plus de place pos­si­ble au déve­lo­p­pe­ment et à l’uti­li­sa­ti­on de l’IA.

Depuis fin 2022, le pro­ce­s­sus légis­la­tif a pris du retard. La rai­son en était non seu­le­ment les 3000 amen­de­ments dépo­sés, mais aus­si l’é­mer­gence de l’IA géné­ra­ti­ve (en par­ti­cu­lier ChatGPT) et la dis­cus­sion sur la maniè­re dont l’AI Act doit s’en occup­er. Dans le pro­jet d’AI Act du 21 avril 2021, les modè­les tels que ChatGPT ne jouai­ent enco­re aucun rôle.

L’AI Act s’ap­pli­que aux four­nis­seurs et aux uti­li­sa­teurs de systè­mes d’IA. Par “four­nis­seurs”, on entend les acteurs qui déve­lo­p­pent et com­mer­cia­li­sent un système, tan­dis que par “uti­li­sa­teurs”, on entend les enti­tés qui uti­li­sent un système sous leur responsa­bi­li­té, à l’ex­clu­si­on de la sphè­re per­son­nel­le et non pro­fes­si­on­nel­le. Les con­som­ma­teurs, les uti­li­sa­teurs finaux et les aut­res per­son­nes phy­si­ques ou mora­les con­cer­nées par les résul­tats des systè­mes ne sont pas couverts.

Appro­che du règle­ment basée sur les risques

L’é­lé­ment cen­tral de l’AI Act est une appro­che basée sur les ris­ques, qui impli­que dif­fé­ren­tes obli­ga­ti­ons et inter­dic­tions en fonc­tion des capa­ci­tés et des ris­ques poten­tiels. Plus le ris­que d’un système d’IA pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux des per­son­nes est éle­vé, plus les exi­gen­ces régle­men­tai­res sont stric­tes. Dans l’AI Act, les appli­ca­ti­ons d’IA sont donc clas­sées en dif­fé­ren­tes caté­go­ries de ris­ques avec des con­sé­quen­ces différentes :

  • Ris­que inac­cep­ta­ble(par ex. scoring social) – l’uti­li­sa­ti­on de systè­mes d’IA cor­re­spond­ants est interdite
  • Ris­que éle­vé (par exemp­le, les systè­mes d’IA desti­nés à être uti­li­sés pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que des per­son­nes phy­si­ques ou pour l’éva­lua­ti­on des examens)
  • Ris­que limi­té ou absence de ris­que(par ex. filt­re anti-spam)

Prin­ci­paux changements

Les prin­ci­paux chan­ge­ments par rap­port au pro­jet de la Com­mis­si­on du 21 avril 2021 sont les suivants :

  • Défi­ni­ti­on des systè­mes d’IA
  • Systè­mes d’IA à haut ris­que : niveau sup­p­lé­men­tai­re pour la clas­si­fi­ca­ti­on en caté­go­ries à haut ris­que et obli­ga­ti­ons plus importan­tes pour les systè­mes correspondants
  • Systè­mes d’IA inter­dits : liste élargie
  • Des règles plus stric­tes pour les soi-disant Modè­les de fond de teint et AI à usa­ge général
  • Créa­ti­on d’un bureau AI
  • Six prin­cipes de l’IA


Défi­ni­ti­on des systè­mes d’IA

Un grand point de dis­cus­sion con­cer­nait la défi­ni­ti­on de l’IA ou des “systè­mes d’IA”. L’é­co­no­mie et la sci­ence cri­ti­quent en par­ti­cu­lier le man­que de pré­cis­i­on de la défi­ni­ti­on des systè­mes d’IA, car la pre­miè­re défi­ni­ti­on du pro­jet d’avril 2021 pou­vait s’ap­pli­quer à pres­que tou­tes les for­mes de logi­ciels. C’est pour­quoi les dépu­tés com­pé­tents se sont mis d’ac­cord sur une nou­vel­le défi­ni­ti­on, qui a été ali­g­née sur la future défi­ni­ti­on de l’OCDE :

Art. 3(1) : ” système d’in­tel­li­gence arti­fi­ci­el­le ” (système IA) : un système basé sur une machi­ne et con­çu pour fonc­tion­ner avec dif­fé­ren­tes Degrés d’au­to­no­mie et qui peut pro­dui­re, à des fins expli­ci­tes ou impli­ci­tes, des résul­tats tels que des pré­dic­tions, des recom­man­da­ti­ons ou des décis­i­ons qui affec­tent des envi­ron­ne­ments phy­si­ques ou vir­tuels.

Pour qu’un système d’IA ent­re dans le champ d’ap­pli­ca­ti­on de l’AI Act, une cer­taine auto­no­mie doit donc être recon­nue au système. Cela exprime une cer­taine indé­pen­dance vis-à-vis de l’opé­ra­teur humain ou de l’in­fluence humaine.

Systè­mes à haut ris­que (“High-risk AI systems”)

Un domaine qui a fait l’ob­jet d’un débat au sein des deux com­mis­si­ons par­le­men­tai­res et qui con­tin­uera pro­ba­blem­ent à fai­re l’ob­jet de dis­cus­sions lors des négo­cia­ti­ons du tri­lo­gue est la longue liste des appli­ca­ti­ons à haut ris­que (anne­xe III du règle­ment). Le pro­jet initi­al con­sidé­rait tou­jours les systè­mes d’IA rele­vant des cas d’uti­li­sa­ti­on cri­ti­ques énu­mé­rés à l’an­ne­xe III com­me étant à haut ris­que. Les dépu­tés ont main­tenant ajou­té une con­di­ti­on sup­p­lé­men­tai­re : un système d’IA à haut ris­que ne doit être con­sidé­ré com­me tel que s’il com­por­te éga­le­ment une ris­que important (“ris­que signi­fi­ca­tif”) pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux impli­que. Un ris­que est con­sidé­ré com­me important lorsqu’il est signi­fi­ca­tif en rai­son de la com­bi­nai­son de sa gra­vi­té, de son inten­si­té, de sa pro­ba­bi­li­té d’oc­cur­rence et de la durée de ses effets et qu’il peut affec­ter un indi­vi­du, un grand nombre de per­son­nes ou un grou­pe par­ti­cu­lier de per­son­nes (cf. art. 1b).

Si les systè­mes d’IA relè­vent de l’an­ne­xe III, mais que les four­nis­seurs esti­ment qu’il n’y a pas de ris­que signi­fi­ca­tif, ils doi­vent en infor­mer l’au­to­ri­té com­pé­ten­te, qui dis­po­se de trois mois pour s’y oppo­ser. Dans l’in­ter­val­le, les four­nis­seurs peu­vent mett­re leur système sur le mar­ché – mais en cas d’éva­lua­ti­on erro­n­ée, le four­nis­seur peut être sanctionné.

Désor­mais, les systè­mes d’IA uti­li­sés pour gérer des infras­truc­tures cri­ti­ques tel­les que les réseaux d’é­ner­gie ou les systè­mes de gesti­on de l’eau seront éga­le­ment con­sidé­rés com­me à haut ris­que si ces appli­ca­ti­ons peu­vent ent­raî­ner des ris­ques envi­ron­ne­men­taux gra­ves. Les systè­mes de recom­man­da­ti­on des “très gran­des pla­te­for­mes en ligne” (plus de 45 mil­li­ons d’uti­li­sa­teurs), tel­les que défi­nies dans la loi sur les ser­vices numé­ri­ques (DSN), sont éga­le­ment con­sidé­rés com­me à haut ris­que. En out­re, des mesu­res de sécu­ri­té sup­p­lé­men­tai­res (par ex. obli­ga­ti­on de docu­men­ta­ti­on) ont été inclu­ses pour la pro­cé­du­re per­met­tant aux four­nis­seurs de systè­mes d’IA à haut ris­que de trai­ter des don­nées sen­si­bles tel­les que l’o­ri­en­ta­ti­on sexu­el­le ou les con­vic­tions reli­gieu­ses afin de détec­ter les biais néga­tifs. Les systè­mes d’IA à haut ris­que doi­vent, selon le der­nier pro­jet, enre­gi­strer leur emprein­te écologique.

Les four­nis­seurs et les uti­li­sa­teurs de systè­mes d’IA à haut ris­que se voi­ent impo­ser des obli­ga­ti­ons éten­dues, par exemp­le en matiè­re d’éva­lua­ti­on de la con­for­mi­té, de systè­mes de gesti­on des ris­ques, de docu­men­ta­ti­on tech­ni­que, d’ob­li­ga­ti­ons de tenue de regi­stres, de trans­pa­rence et de four­ni­tu­re d’in­for­ma­ti­ons aux uti­li­sa­teurs, de super­vi­si­on humaine, de pré­cis­i­on, de robust­es­se et de cyber­sé­cu­ri­té, de systè­mes de gesti­on de la qua­li­té, de noti­fi­ca­ti­on des inci­dents et dys­fonc­tion­ne­ments gra­ves, etc. Des critères de qua­li­té défi­nis doi­vent éga­le­ment être respec­tés pour les ensem­bles de don­nées de for­ma­ti­on, de vali­da­ti­on et de test.

Pra­ti­ques inter­di­tes (“Pro­hi­bi­ted practices”)

Un débat poli­ti­quement sen­si­ble a por­té sur le type de systè­mes d’IA à interd­ire par­ce qu’ils pré­sen­tent un ris­que inac­cep­ta­ble. Mal­gré tout, cet­te caté­go­rie a été élar­gie : L’uti­li­sa­ti­on de logi­ciels d’i­den­ti­fi­ca­ti­on bio­mé­tri­que serait désor­mais tota­le­ment inter­di­te. Selon le tex­te de com­pro­mis, un logi­ciel de recon­nais­sance cor­re­spond­ant ne peut être uti­li­sé qu’en cas d’in­frac­tion péna­le gra­ve et avec l’au­to­ri­sa­ti­on pré­alable d’un tri­bu­nal. De même, l’uti­li­sa­ti­on de logi­ciels basés sur l’IA pour la recon­nais­sance des émo­ti­ons serait inter­di­te dans les domain­es de l’ap­pli­ca­ti­on de la loi, de la gesti­on des fron­tiè­res, du lieu de tra­vail et de l’éducation.

Ensuite, les “tech­ni­ques déli­bé­ré­ment mani­pu­la­tri­ces ou trom­peu­ses” sont désor­mais inter­di­tes (bien que la preuve de l’in­ten­ti­on pui­s­se être dif­fi­ci­le à appor­ter). Cet­te inter­dic­tion ne s’ap­pli­que pas aux systè­mes d’IA desti­nés à être uti­li­sés à des fins thé­ra­peu­ti­ques auto­ri­sées, sur la base d’un con­sen­te­ment éclai­ré et expli­ci­te. Par ail­leurs, l’in­ter­dic­tion des dépu­tés euro­pé­ens pour la “poli­ce pré­dic­ti­ve” a éga­le­ment été éten­due des délits aux contraventions.

Gene­ral Pur­po­se AI” et “Foun­da­ti­on models” (modè­les de fondation)

Remar­ques pré­li­mi­n­aires:

  • App­ren­tis­sa­ge auto­ma­tique (ML) est un sous-domaine de l’IA. 
  • AI à usa­ge géné­ral (GPAI ; en alle­mand : gene­ra­ti­ve KI) est à son tour un sous-domaine de la ML, qui peut géné­rer de nou­veaux con­te­nus tels que du tex­te, des images, de la vidéo, du code, etc. com­me résul­tat d’u­ne invi­te de commande. 
  • Modè­les de fond de teint (FMs ; en fran­çais : modè­les de base). Il s’a­git d’u­ne appli­ca­ti­on d’app­ren­tis­sa­ge en pro­fon­deur qui a géné­ra­le­ment été ent­raî­née sur un lar­ge éven­tail de sources de don­nées et sur de gran­des quan­ti­tés de don­nées afin d’ac­com­plir un lar­ge éven­tail de tâches, y com­pris cel­les pour les­quel­les elles n’ont pas été spé­ci­fi­quement déve­lo­p­pées et ent­raî­nées. Les FM sont une vari­an­te des IGP.
  • Un Modè­le lin­gu­istique lar­ge (LLM) est une sous-vari­an­te des FM. LLM est un modè­le de lan­ga­ge qui repro­duit un réseau neuronal.
  • GPT est une série de LLM d’O­pe­nAI déve­lo­p­pée depuis 2018. La der­niè­re ver­si­on est GPT‑4.

Dans le pro­jet d’AI Act du 21 avril 2021, il man­quait des réfé­ren­ces aux systè­mes d’IA sans objec­tif spé­ci­fi­que (AI à usa­ge géné­ral). Cela chan­ge avec le tex­te de com­pro­mis actuel. L’es­sor de ChatGPT et d’aut­res systè­mes d’IA géné­ra­tifs a inci­té les dépu­tés à inclu­re des “Systè­mes d’IA à usa­ge géné­ral(GPAI) etModè­les de fond de teint“de vou­loir réglementer.

Initia­le­ment, les deman­des d’in­ter­dic­tion ou de clas­si­fi­ca­ti­on per­ma­nen­te de ChatGPT et des systè­mes d’IA simi­lai­res dans la caté­go­rie à haut ris­que ont été dis­cu­tées. Cepen­dant, le tex­te de com­pro­mis actuel ne clas­se pas les IGP com­me étant à haut ris­que en soi. Ce n’est que lorsque les four­nis­seurs intègrent des IGP dans leurs systè­mes d’IA con­sidé­rés com­me à haut ris­que que les exi­gen­ces stric­tes de la caté­go­rie à haut ris­que s’ap­pli­quent éga­le­ment aux IGP. Dans ce cas, les four­nis­seurs d’IGP doi­vent aider les four­nis­seurs en aval à se con­for­mer en four­nis­sant des infor­ma­ti­ons et de la docu­men­ta­ti­on sur le modè­le d’IA.

Des exi­gen­ces plus stric­tes sont éga­le­ment pro­po­sées pour les Foun­da­ti­on Models. Cel­les-ci con­cer­nent par exemp­le la gesti­on des ris­ques, la gesti­on de la qua­li­té, la gesti­on des don­nées, la sécu­ri­té et la cyber­sé­cu­ri­té ain­si que le degré de robust­es­se d’un modè­le de base. L’ar­tic­le 28b du tex­te de com­pro­mis régit les obli­ga­ti­ons des four­nis­seurs d’un modè­le de base, que celui-ci soit auto­no­me ou inté­g­ré dans un système ou un pro­duit d’IA, qu’il soit mis à dis­po­si­ti­on sous des licen­ces gra­tui­tes et open source, en tant que ser­vice ou via d’aut­res canaux de dis­tri­bu­ti­on. Out­re une série d’ob­li­ga­ti­ons de trans­pa­rence détail­lées (réfé­rence à l’art. 52 ; par exemp­le, divul­ga­ti­on aux per­son­nes phy­si­ques qu’el­les inter­agis­sent avec un système d’IA), les four­nis­seurs de modè­les de fon­da­ti­on seront éga­le­ment tenus de four­nir un résu­mé “suf­fi­sam­ment détail­lé” de l’uti­li­sa­ti­on des don­nées d’en­traî­ne­ment pro­té­gées par le droit d’au­teur (art. 28b, al. 4, let. c). La maniè­re dont cela doit être mis en œuvre pour des ent­re­pri­ses com­me Ope­nAI n’est pas clai­re, car ChatGPT, par exemp­le, a été ent­raî­né sur un ensem­ble de don­nées de plus de 570 Go de don­nées textuelles.

Nou­veaux prin­cipes de l’IA

Enfin, l’ar­tic­le 4a du tex­te de com­pro­mis con­ti­ent des “prin­cipes géné­raux appli­ca­bles à tous les systè­mes d’IA”. Tous les acteurs con­cer­nés par l’AI Act doi­vent déve­lo­p­per et uti­li­ser des systè­mes d’IA et des modè­les de fon­da­ti­on en accord avec les six “prin­cipes d’IA” suivants :

  • Action et con­trô­le humainsLes systè­mes d’IA doi­vent être au ser­vice de l’hom­me, respec­ter la dignité humaine et l’au­to­no­mie per­son­nel­le, et fonc­tion­ner de maniè­re à pou­voir être con­trôlés et sur­veil­lés par l’homme.
  • Robust­es­se tech­ni­que et sécu­ri­té: Les dom­mages invo­lon­tai­res et inat­ten­dus doi­vent être réduits au mini­mum et les systè­mes d’IA doi­vent être robu­stes en cas de pro­blè­mes involontaires.
  • Pro­tec­tion des don­nées et gou­ver­nan­ce des don­néesLes systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent être déve­lo­p­pés et uti­li­sés dans le respect de la légis­la­ti­on sur la pro­tec­tion des données.
  • Trans­pa­renceLa tra­ça­bi­li­té et l’ex­pli­ca­bi­li­té doi­vent être pos­si­bles et les per­son­nes doi­vent être con­sci­en­tes qu’el­les inter­agis­sent avec un système d’IA.
  • Diver­si­té, non-dis­cri­mi­na­ti­on et équi­téLes systè­mes d’IA doi­vent impli­quer dif­fér­ents acteurs et pro­mou­voir l’é­ga­li­té d’ac­cès, l’é­ga­li­té des sexes et la diver­si­té cul­tu­rel­le, et inver­se­ment, évi­ter les effets discriminatoires.
  • Bien-être social et envi­ron­ne­men­talLes systè­mes d’IA doi­vent être dur­a­bles et respec­tueux de l’en­vi­ron­ne­ment, et être déve­lo­p­pés et uti­li­sés au pro­fit de tous les êtres humains.

Créa­ti­on d’un bureau euro­pé­en de l’IA

Les deux com­mis­si­ons par­le­men­tai­res se sont accor­dées sur le fait que l’ar­chi­tec­tu­re de mise en œuvre dev­rait com­porter un élé­ment cen­tral, notam­ment pour sou­te­nir l’ap­pli­ca­ti­on har­mo­ni­sée de l’AI Act et pour les enquêtes trans­fron­ta­liè­res. C’est pour­quoi la créa­ti­on d’un AI Office a été pro­po­sée. Le nou­veau tex­te de com­pro­mis (art. 56 et sui­vants) expli­que en détail les tâches de ce bureau.

Sanctions

En cas de vio­la­ti­on de l’AI Act, de lour­des amen­des peu­vent être inf­li­gées, com­me pour le RGPD. En cas de vio­la­ti­on des inter­dic­tions ou des exi­gen­ces des systè­mes à haut ris­que en matiè­re de gou­ver­nan­ce des don­nées, des amen­des pou­vant att­eind­re 30 mil­li­ons d’eu­ros ou 6% du chif­fre d’af­fai­res annu­el mon­di­al – le mon­tant le plus éle­vé étant rete­nu – sont prévues.

Champ d’ap­pli­ca­ti­on inter­na­tio­nal : con­sé­quen­ces pour la Suisse

Les four­nis­seurs sui­s­ses qui com­mer­cia­li­sent ou met­tent en ser­vice des systè­mes d’IA dans l’UE sont éga­le­ment cou­verts par le champ d’ap­pli­ca­ti­on géo­gra­phi­que de l’AI Act. Ensuite, l’AI Act s’ap­pli­que aux four­nis­seurs et uti­li­sa­teurs sui­s­ses de systè­mes d’IA lorsque le résul­tat pro­duit par le système d’IA est uti­li­sé dans l’UE.

Ensuite, il dev­rait y avoir en Sui­s­se ce que l’on appel­le “l’ef­fet Bru­xel­les”. De nombreux four­nis­seurs sui­s­ses d’IA ne déve­lo­p­pe­ront pas leurs pro­duits uni­quement pour la Sui­s­se, ce qui dev­rait per­mett­re aux nou­vel­les nor­mes euro­pé­en­nes de l’AI Act de s’im­po­ser en Sui­s­se également.

Pro­cé­du­re ulté­ri­eu­re et entrée en vigueur

Le vote en séan­ce plé­niè­re du Par­le­ment à la mi-juin pour­rait bien réser­ver des sur­pri­ses, mais la posi­ti­on du Par­le­ment est lar­ge­ment con­so­li­dée. Une fois que le Par­le­ment aura for­mel­le­ment adop­té sa posi­ti­on, le pro­jet ent­rera dans la der­niè­re pha­se de la pro­cé­du­re légis­la­ti­ve : les négo­cia­ti­ons dites en tri­lo­gue, au cours des­quel­les les repré­sen­tants du Con­seil de l’UE, du Par­le­ment euro­pé­en et de la Com­mis­si­on euro­pé­en­ne se mettront d’ac­cord sur un tex­te final. Tou­te­fois, l’AI Act ne dev­rait pas être adop­té avant la fin de l’an­née 2023, ce qui signi­fie qu’il ne pour­ra pas être mis en œuvre avant cet­te date. en vigueur au plus tôt à la mi-2024 de la loi. Il y aura ensuite une péri­ode de mise en œuvre de deux ans. Tou­te­fois, les dis­po­si­ti­ons rela­ti­ves aux auto­ri­tés et orga­nis­mes noti­fi­ants ain­si que les dis­po­si­ti­ons rela­ti­ves au Comi­té euro­pé­en de l’in­tel­li­gence arti­fi­ci­el­le et aux auto­ri­tés natio­na­les com­pé­ten­tes doi­vent déjà pro­dui­re leur plein effet trois mois après l’en­trée en vigueur. L’art. 71 (Sanc­tions) est déjà appli­ca­ble 12 mois après son entrée en vigueur.

Même s’il fau­dra enco­re attendre avant que le règle­ment ne soit per­ti­nent pour les ent­re­pri­ses (sui­s­ses), cel­les-ci dev­rai­ent se fami­lia­ri­ser avec le pro­jet actuel.