déplier | replier

Cha­pit­re I Dis­po­si­ti­ons générales

Réci­tals généraux

(1) L’ob­jec­tif du pré­sent règle­ment est d’a­mé­lio­rer le fonc­tion­ne­ment du mar­ché inté­ri­eur en éta­blis­sant un cad­re juri­di­que uni­for­me, en par­ti­cu­lier pour le déve­lo­p­pe­ment, la mise sur le mar­ché, la mise en ser­vice et l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le (IA) dans l’U­ni­on, con­for­mé­ment aux valeurs de l’U­ni­on, à pro­mou­voir l’ad­op­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA) cen­trée sur l’hom­me et fia­ble tout en assu­rant un niveau éle­vé de pro­tec­tion de la san­té, de la sécu­ri­té, des droits fon­da­men­taux tels qu’é­non­cés dans la Char­te des droits fon­da­men­taux de l’U­ni­on euro­pé­en­ne (la “Char­te”), y com­pris la démo­cra­tie, l’É­tat de droit et la pro­tec­tion de l’en­vi­ron­ne­ment, à se pré­mu­nir cont­re les effets néfa­stes des systè­mes d’IA dans l’U­ni­on et à sou­te­nir l’in­no­va­ti­on. Le pré­sent règle­ment garan­tit la lib­re cir­cula­ti­on trans­fron­ta­liè­re des biens et des ser­vices liés à l’in­tel­li­gence arti­fi­ci­el­le, empêchant ain­si les États mem­bres d’im­po­ser des rest­ric­tions au déve­lo­p­pe­ment, à la com­mer­cia­li­sa­ti­on et à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, sauf auto­ri­sa­ti­on expres­se du pré­sent règlement.

(2) Le pré­sent règle­ment dev­rait être appli­qué con­for­mé­ment aux valeurs de l’U­ni­on tel­les qu’el­les sont énon­cées dans la Char­te, en faci­li­tant la pro­tec­tion des per­son­nes phy­si­ques, des ent­re­pri­ses, de la démo­cra­tie, de l’É­tat de droit et de la pro­tec­tion de l’en­vi­ron­ne­ment, tout en sti­mu­lant l’in­no­va­ti­on et l’em­ploi et en faisant de l’U­ni­on un chef de file dans l’ad­op­ti­on d’u­ne IA de confiance.

(3) Les systè­mes d’IA peu­vent être faci­le­ment déployés dans une gran­de varié­té de sec­teurs de l’é­co­no­mie et dans de nombreu­ses par­ties de la socié­té, y com­pris au-delà des fron­tiè­res, et peu­vent cir­culer aisé­ment dans l’en­sem­ble de l’U­ni­on. Cer­ta­ins États mem­bres ont déjà explo­ré l’ad­op­ti­on de règles natio­na­les pour s’assurer que l’IA est fia­ble et sûre et qu’el­le est déve­lo­p­pée et uti­li­sée en con­for­mi­té avec les obli­ga­ti­ons en matiè­re de droits fon­da­men­taux. Des règles natio­na­les diver­gen­tes peu­vent con­dui­re à la frag­men­ta­ti­on du mar­ché inter­ne et rédui­re la sécu­ri­té juri­di­que pour les opé­ra­teurs qui déve­lo­p­pent, importent ou uti­li­sent des systè­mes d’IA. Il con­vi­ent donc d’assurer un niveau de pro­tec­tion cohé­rent et éle­vé dans l’en­sem­ble de l’U­ni­on afin de par­ve­nir à une IA fia­ble, tout en évi­tant les diver­gen­ces qui ent­ra­vent la lib­re cir­cula­ti­on, l’in­no­va­ti­on, le déploie­ment et l’ad­op­ti­on de systè­mes d’IA et de pro­duits et ser­vices con­ne­xes sur le mar­ché inté­ri­eur, en éta­blis­sant des obli­ga­ti­ons uni­for­mes pour les opé­ra­teurs et en garan­tis­sant la pro­tec­tion uni­for­me de rai­sons d’in­té­rêt public prépon­dé­ran­tes et des droits des per­son­nes sur l’en­sem­ble du mar­ché inté­ri­eur sur la base de l’ar­tic­le 114 du trai­té sur le fonc­tion­ne­ment de l’U­ni­on euro­pé­en­ne (TFUE). Dans la mesu­re où le pré­sent règle­ment con­ti­ent des règles spé­ci­fi­ques sur la pro­tec­tion des per­son­nes à l’é­gard du trai­te­ment des don­nées à carac­tère per­son­nel con­cer­nant les rest­ric­tions à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance à des fins d’ap­pli­ca­ti­on de la loi, à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’éva­lua­ti­on des ris­ques des per­son­nes phy­si­ques à des fins d’ap­pli­ca­ti­on de la loi et à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le de caté­go­ri­sa­ti­on bio­mé­tri­que à des fins d’ap­pli­ca­ti­on de la loi, il con­vi­ent de fon­der le pré­sent règle­ment, dans la mesu­re où ces règles spé­ci­fi­ques sont con­cer­nées, sur l’ar­tic­le 16 du TFEU. Comp­te tenu de ces règles spé­ci­fi­ques et du recours à l’ar­tic­le 16 du TFEU, il con­vi­ent de con­sul­ter le Con­seil euro­pé­en de la pro­tec­tion des données.

(4) L’IA est une famil­le de tech­no­lo­gies en évo­lu­ti­on rapi­de qui con­tri­bue à un lar­ge éven­tail d’a­van­ta­ges éco­no­mi­ques, envi­ron­ne­men­taux et socié­taux dans tout le spect­re des indu­stries et des acti­vi­tés socia­les. En amé­lio­rant la pré­dic­tion, en opti­mi­sant les opé­ra­ti­ons et l’al­lo­ca­ti­on des res­sour­ces, et en per­son­na­li­sant les solu­ti­ons numé­ri­ques dis­po­ni­bles pour les indi­vi­dus et les orga­ni­sa­ti­ons, l’uti­li­sa­ti­on de l’IA peut four­nir des avan­ta­ges con­cur­ren­tiels clés pour entre­prend­re et sou­te­nir des résul­tats socia­le­ment et envi­ron­ne­men­ta­le­ment béné­fi­ques, par exemp­le dans la san­té, l’ag­ri­cul­tu­re, la sécu­ri­té ali­men­tai­re, la for­ma­ti­on, les médi­as, les sports, la cul­tu­re, la gesti­on des infras­truc­tures, l’é­ner­gie, le trans­port et la logi­stique, les ser­vices publics, la sécu­ri­té, la justi­ce, l’ef­fi­ca­ci­té des res­sour­ces et de l’é­ner­gie, la sur­veil­lan­ce de l’en­vi­ron­ne­ment, la con­ser­va­ti­on et la restau­ra­ti­on de la bio­di­ver­si­té et des éco­sy­stè­mes, et l’at­té­nua­ti­on et l’ad­ap­t­ati­on du chan­ge­ment climatique.

(5) En même temps, en fonc­tion des cir­con­stances rela­ti­ves à son appli­ca­ti­on spé­ci­fi­que, à son uti­li­sa­ti­on et à son niveau de déve­lo­p­pe­ment tech­no­lo­gi­que, l’IA peut géné­rer des ris­ques et cau­ser des dom­mages aux inté­rêts publics et aux droits fon­da­men­taux pro­té­gés par le droit de l’U­ni­on. Ces dom­mages peu­vent être maté­ri­els ou imma­té­ri­els, y com­pris phy­si­ques, psy­cho­lo­gi­ques, soci­aux ou économiques.

(6) Comp­te tenu de l’im­pact majeur que l’IA peut avoir sur la socié­té et de la néces­si­té d’in­stau­rer la con­fi­ance, il est essen­tiel que l’IA et son cad­re régle­men­tai­re soi­ent déve­lo­p­pés con­for­mé­ment aux valeurs de l’U­ni­on tel­les qu’el­les sont énon­cées à l’ar­tic­le 2 du trai­té sur l’U­ni­on euro­pé­en­ne (TUE), aux droits et liber­tés fon­da­men­taux énon­cés dans les trai­tés et, con­for­mé­ment à l’ar­tic­le 6 du TUE, dans la char­te. En tant que con­di­ti­on pré­alable, l’IA dev­rait être une tech­no­lo­gie cen­trée sur l’hom­me. Elle dev­rait ser­vir d’ou­til pour les per­son­nes, avec pour objec­tif ulti­me d’ac­croît­re le bien-être humain.

(7) Afin d’assurer un niveau cohé­rent et éle­vé de pro­tec­tion des inté­rêts publics en matiè­re de san­té, de sécu­ri­té et de droits fon­da­men­taux, il con­vi­ent d’é­ta­b­lir des règles com­mu­nes pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. Ces règles dev­rai­ent être con­for­mes à la Char­te, non dis­cri­mi­na­toires et en accord avec les enga­ge­ments com­mer­ci­aux inter­na­ti­on­aux de l’U­ni­on. Elles dev­rai­ent éga­le­ment tenir comp­te de la Décla­ra­ti­on euro­pé­en­ne sur les droits et prin­cipes numé­ri­ques pour la décen­nie numé­ri­que et des lignes direc­tri­ces éthi­ques pour une IA de con­fi­ance du Grou­pe d’ex­perts de haut niveau sur l’in­tel­li­gence arti­fi­ci­el­le (AI HLEG).

(8) Un cad­re juri­di­que de l’U­ni­on fix­ant des règles har­mo­ni­sées sur l’in­tel­li­gence arti­fi­ci­el­le est donc néces­saire pour favo­ri­ser le déve­lo­p­pe­ment, l’uti­li­sa­ti­on et l’ad­op­ti­on de l’in­tel­li­gence arti­fi­ci­el­le sur le mar­ché inté­ri­eur, tout en assu­rant un niveau éle­vé de pro­tec­tion des inté­rêts publics, tels que la san­té et la sécu­ri­té, ain­si que la pro­tec­tion des droits fon­da­men­taux, y com­pris la démo­cra­tie, l’é­tat de droit et la pro­tec­tion de l’en­vi­ron­ne­ment, tels que recon­nus et pro­té­gés par le droit de l’U­ni­on. Pour att­eind­re cet objec­tif, il con­vi­ent d’é­ta­b­lir des règles régis­sant la mise sur le mar­ché, la mise en ser­vice et l’uti­li­sa­ti­on de cer­ta­ins systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique, garan­tis­sant ain­si le bon fonc­tion­ne­ment du mar­ché inté­ri­eur et per­met­tant à ces systè­mes de béné­fi­ci­er du prin­ci­pe de lib­re cir­cula­ti­on des biens et des ser­vices. Ces règles dev­rai­ent être clai­res et soli­des pour pro­té­ger les droits fon­da­men­taux, sou­te­nir les nou­vel­les solu­ti­ons inno­van­tes, per­mett­re à un éco­sy­stème euro­pé­en d’ac­teurs publics et pri­vés de cré­er des systè­mes d’in­tel­li­gence arti­fi­ci­el­le en accord avec les valeurs de l’U­ni­on et libé­rer le poten­tiel de la trans­for­ma­ti­on numé­ri­que dans tou­tes les régions de l’U­ni­on. En éta­blis­sant ces règles ain­si que des mesu­res de sou­ti­en à l’in­no­va­ti­on, avec un accent par­ti­cu­lier sur les peti­tes et moy­ennes ent­re­pri­ses (PME), y com­pris les start-ups, ce règle­ment sou­ti­ent l’ob­jec­tif de pro­mou­voir l’appro­che euro­pé­en­ne de l’IA cen­trée sur l’hu­main et d’êt­re un lea­der mon­di­al dans le déve­lo­p­pe­ment d’u­ne IA sûre, fia­ble et éthi­que, com­me l’a deman­dé le Con­seil euro­pé­en, et il assu­re la pro­tec­tion des prin­cipes éthi­ques, com­me deman­dé spé­ci­fi­quement par le Par­le­ment européen.

(144) Afin de pro­mou­voir et de pro­té­ger l’in­no­va­ti­on, la pla­te-for­me IA à la deman­de, tous les pro­gram­mes et pro­jets de finance­ment de l’U­ni­on per­tin­ents, tels que le pro­gram­me Digi­tal Euro­pe, Hori­zon Euro­pe, mis en œuvre par la Com­mis­si­on et les États mem­bres au niveau de l’U­ni­on ou au niveau natio­nal, dev­rai­ent, le cas échéant, con­tri­buer à la réa­li­sa­ti­on des objec­tifs du pré­sent règlement.

(145) Afin de rédui­re au mini­mum les ris­ques de mise en œuvre résul­tant d’un man­que de con­nais­sances et d’ex­per­ti­se sur le mar­ché et de faci­li­ter le respect par les four­nis­seurs, en par­ti­cu­lier les PME, y com­pris les start-ups, et les orga­nis­mes noti­fi­és de leurs obli­ga­ti­ons au tit­re du pré­sent règle­ment, la pla­te­for­me IA à la deman­de, les cen­tres euro­pé­ens d’in­no­va­ti­on numé­ri­que et les instal­la­ti­ons d’es­sai et d’expé­ri­men­ta­ti­on mis en place par la Com­mis­si­on et les États mem­bres au niveau de l’U­ni­on ou au niveau natio­nal dev­rai­ent con­tri­buer à la mise en œuvre du pré­sent règle­ment. Dans le cad­re de leur mis­si­on et de leurs domain­es de com­pé­tence respec­tifs, la pla­te-for­me IA à la deman­de, les cen­tres euro­pé­ens d’in­no­va­ti­on numé­ri­que et les instal­la­ti­ons d’es­sai et d’expé­ri­men­ta­ti­on sont en mesu­re de four­nir un sou­ti­en tech­ni­que et sci­en­ti­fi­que aux four­nis­seurs et aux orga­nis­mes notifiés.

(147) Il est appro­prié que la Com­mis­si­on faci­li­te, dans la mesu­re du pos­si­ble, l’ac­cès aux instal­la­ti­ons d’es­sai et d’expé­ri­men­ta­ti­on aux orga­nis­mes, grou­pes ou labo­ra­toires étab­lis ou accré­di­tés en ver­tu de tou­te légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on per­ti­nen­te et qui accom­plis­sent des tâches dans le cad­re de l’éva­lua­ti­on de la con­for­mi­té des pro­duits ou des dis­po­si­tifs cou­verts par cet­te légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on. Tel est, en par­ti­cu­lier, le cas des panels d’ex­perts, des labo­ra­toires d’ex­perts et des labo­ra­toires de réfé­rence dans le domaine des dis­po­si­tifs médi­caux con­for­mé­ment aux règle­ments (UE) 2017/745 et (UE) 2017/746.

(176) Étant don­né que l’ob­jec­tif du pré­sent règle­ment, à savoir amé­lio­rer le fonc­tion­ne­ment du mar­ché inté­ri­eur et pro­mou­voir l’ad­op­ti­on d’IA cen­trées sur l’hom­me et fia­bles, tout en assu­rant un niveau éle­vé de pro­tec­tion de la san­té, de la sécu­ri­té, des droits fon­da­men­taux con­sacrés par la Char­te, y com­pris la démo­cra­tie, le respect de la loi et la pro­tec­tion de l’en­vi­ron­ne­ment cont­re les effets néfa­stes des systè­mes d’IA dans l’U­ni­on, et en encou­ra­geant l’in­no­va­ti­on, ne peut pas être réa­li­sé de maniè­re suf­fi­san­te par les États mem­bres et peut donc, en rai­son de l’é­chel­le ou des effets de l’ac­tion, être mieux réa­li­sé au niveau de l’U­ni­on, cel­le-ci peut adop­ter des mesu­res con­for­mé­ment au prin­ci­pe de sub­si­dia­ri­té énon­cé à l’ar­tic­le 5 du trai­té CE. Con­for­mé­ment au prin­ci­pe de pro­por­ti­on­na­li­té tel qu’é­non­cé audit artic­le, le pré­sent règle­ment ne va pas au-delà de ce qui est néces­saire pour att­eind­re cet objectif.

(180) Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées et le Con­seil euro­pé­en de la pro­tec­tion des don­nées ont été con­sul­tés con­for­mé­ment à l’ar­tic­le 42, para­gra­phes 1 et 2, du règle­ment (UE) 2018/1725 et ont ren­du leur avis con­joint le 18 juin 2021,


Artic­le 1 Objet

1. L’ob­jec­tif du pré­sent règle­ment est d’a­mé­lio­rer le fonc­tion­ne­ment du mar­ché inté­ri­eur et de pro­mou­voir l’ad­op­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA) cen­trée sur l’hom­me et fia­ble, tout en assu­rant un niveau éle­vé de pro­tec­tion de la san­té, de la sécu­ri­té, des droits fon­da­men­taux con­sacrés par la Char­te, y com­pris la démo­cra­tie, le respect de la loi et la pro­tec­tion de l’en­vi­ron­ne­ment, cont­re les effets néfa­stes des systè­mes d’IA dans l’U­ni­on et en encou­ra­geant l’innovation.

2. Le pré­sent règle­ment fixe des règles :

(a) des règles har­mo­ni­sées pour la mise sur le mar­ché, la mise en ser­vice et l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans l’Union ;

(b) les inter­dic­tions de cer­tai­nes pra­ti­ques d’IA ;

(c) des exi­gen­ces spé­ci­fi­ques pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et des obli­ga­ti­ons pour les opé­ra­teurs de ces systèmes ;

(d) des règles de trans­pa­rence har­mo­ni­sées pour cer­ta­ins systè­mes d’IA ;

(e) des règles har­mo­ni­sées pour la mise sur le mar­ché de modè­les d’IA à usa­ge général ;

(f) des règles sur la sur­veil­lan­ce du mar­ché, le con­trô­le du mar­ché, la gou­ver­nan­ce et l’application ;

(g) des mesu­res visa­nt à sou­te­nir l’in­no­va­ti­on, avec un accent par­ti­cu­lier sur les PME, y com­pris les start-ups.

Artic­le 2 Champ d’application

1. Le pré­sent règle­ment s’ap­pli­que à :

(a) les four­nis­seurs met­tant sur le mar­ché ou met­tant en ser­vice des systè­mes d’in­tel­li­gence arti­fi­ci­el­le ou met­tant sur le mar­ché des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral dans l’U­ni­on, que ces four­nis­seurs soi­ent étab­lis ou situés dans l’U­ni­on ou dans un pays tiers ;

(21) Afin d’assurer une éga­li­té de trai­te­ment et une pro­tec­tion effec­ti­ve des droits et des liber­tés des per­son­nes dans l’en­sem­ble de l’U­ni­on, les règles éta­b­lies par le pré­sent règle­ment dev­rai­ent s’ap­pli­quer de maniè­re non dis­cri­mi­na­toire aux four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, qu’ils soi­ent étab­lis dans l’U­ni­on ou dans un pays tiers, et aux per­son­nes qui déploi­ent des systè­mes d’in­tel­li­gence arti­fi­ci­el­le étab­lis dans l’Union.

(23) Le pré­sent règle­ment dev­rait éga­le­ment s’ap­pli­quer aux insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on lorsqu’ils agis­sent en tant que four­nis­seurs ou déployeurs d’un système d’in­tel­li­gence artificielle.

(b) les déployeurs de systè­mes d’IA qui ont leur lieu d’é­ta­blis­se­ment ou sont situés dans l’Union ;

(c) les four­nis­seurs et les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ont leur lieu d’é­ta­blis­se­ment ou sont situés dans un pays tiers, où la pro­duc­tion du système d’in­tel­li­gence arti­fi­ci­el­le est uti­li­sée dans l’Union ;

(d) impor­ta­teurs et dis­tri­bu­teurs de systè­mes d’IA ;

(e) les fab­ri­cants de pro­duits qui met­tent sur le mar­ché ou en ser­vice un système d’in­tel­li­gence arti­fi­ci­el­le avec leur pro­duit et sous leur pro­pre nom ou marque ;

(f) les repré­sen­tants auto­ri­sés de pre­sta­tai­res qui ne sont pas étab­lis dans l’Union ;

(82) Afin de per­mett­re l’ap­pli­ca­ti­on du pré­sent règle­ment et de cré­er un ter­rain de jeu équi­ta­ble pour les opé­ra­teurs, et comp­te tenu des dif­fé­ren­tes for­mes de mise à dis­po­si­ti­on des pro­duits numé­ri­ques, il est important de s’assurer que, dans tou­tes les cir­con­stances, une per­son­ne éta­b­lie dans l’U­ni­on pui­s­se four­nir aux auto­ri­tés tou­tes les infor­ma­ti­ons néces­saires sur la con­for­mi­té d’un système d’IA. C’est pour­quoi, avant de mett­re leurs systè­mes d’IA à dis­po­si­ti­on dans l’U­ni­on, les four­nis­seurs étab­lis dans des pays tiers doi­vent, par man­dat écrit, dési­gner un repré­sen­tant auto­ri­sé éta­b­li dans l’U­ni­on. Ce repré­sen­tant agréé joue un rôle essen­tiel dans la garan­tie de la con­for­mi­té des systè­mes d’IA à haut ris­que mis sur le mar­ché ou en ser­vice dans l’U­ni­on par les four­nis­seurs qui ne sont pas étab­lis dans l’U­ni­on et dans le ser­vice de leur per­son­ne de cont­act éta­b­lie dans l’Union.

(g) les per­son­nes affec­tées situées dans l’Union.

2. En ce qui con­cer­ne les systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique clas­sés com­me systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique à haut ris­que con­for­mé­ment à l’ar­tic­le 6, para­gra­phe 1, rela­tifs aux pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée dans la sec­tion B de l’an­ne­xe I, seuls l’ar­tic­le 6, para­gra­phe 1, les artic­les 102 à 109 et l’ar­tic­le 112 s’ap­pli­quent. L’ar­tic­le 57 ne s’ap­pli­que que dans la mesu­re où les exi­gen­ces rela­ti­ves aux systè­mes d’assu­rance qua­li­té à haut ris­que pré­vues par le pré­sent règle­ment ont été inté­g­rées dans la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’Union.

3. Le pré­sent règle­ment ne s’ap­pli­que pas aux domain­es qui sortent du champ d’ap­pli­ca­ti­on du droit de l’U­ni­on et n’af­fec­te en aucun cas les com­pé­ten­ces des États mem­bres en matiè­re de sécu­ri­té natio­na­le, quel que soit le type d’en­ti­té char­gé par les États mem­bres d’exé­cu­ter des tâches rele­vant de ces compétences.

Le pré­sent règle­ment ne s’ap­pli­que pas aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le lorsque et jus­qu’à ce qu’ils soi­ent mis sur le mar­ché, mis en ser­vice ou uti­li­sés, avec ou sans modi­fi­ca­ti­on, exclu­si­ve­ment à des fins mili­taires, de défen­se ou de sécu­ri­té natio­na­le, quel que soit le type d’en­ti­té exer­çant ces activités.

Le pré­sent règle­ment ne s’ap­pli­que pas aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ne sont pas mis sur le mar­ché ou mis en ser­vice dans l’U­ni­on, lorsque la pro­duc­tion est uti­li­sée dans l’U­ni­on exclu­si­ve­ment à des fins mili­taires, de défen­se ou de sécu­ri­té natio­na­le, quel que soit le type d’en­ti­té exer­çant ces activités.

(24) Si, et dans la mesu­re où, des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont mis sur le mar­ché, mis en ser­vice ou uti­li­sés, avec ou sans modi­fi­ca­ti­on de ces systè­mes, à des fins mili­taires, de défen­se ou de sécu­ri­té natio­na­le, ils doi­vent être exclus du champ d’ap­pli­ca­ti­on du pré­sent règle­ment, quel que soit le type d’en­ti­té qui exer­ce ces acti­vi­tés, qu’il s’a­gis­se d’u­ne enti­té publi­que ou pri­vée. En ce qui con­cer­ne les fins mili­taires et de défen­se, cet­te exclu­si­on est justi­fi­ée à la fois par l’ar­tic­le 4, para­gra­phe 2, du TUE et par les spé­ci­fi­ci­tés de la poli­tique de défen­se des États mem­bres et de l’U­ni­on euro­pé­en­ne cou­ver­te par le cha­pit­re 2 du tit­re V du TUE, qui sont sou­mi­ses au droit inter­na­tio­nal public, lequel con­sti­tue donc le cad­re juri­di­que le plus appro­prié pour la régle­men­ta­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le cad­re de l’uti­li­sa­ti­on de la force léta­le et d’aut­res systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le con­tex­te des acti­vi­tés mili­taires et de défen­se. En ce qui con­cer­ne les objec­tifs de sécu­ri­té natio­na­le, l’ex­clu­si­on est justi­fi­ée à la fois par le fait que la sécu­ri­té natio­na­le reste de la seu­le responsa­bi­li­té des États mem­bres con­for­mé­ment à l’ar­tic­le 4, para­gra­phe 2, du TUE et par la natu­re spé­ci­fi­que et les beso­ins opé­ra­ti­on­nels des acti­vi­tés de sécu­ri­té natio­na­le et des règles natio­na­les spé­ci­fi­ques appli­ca­bles à ces acti­vi­tés. Néan­mo­ins, si un système d’in­tel­li­gence arti­fi­ci­el­le déve­lo­p­pé, mis sur le mar­ché, mis en ser­vice ou uti­li­sé à des fins mili­taires, de défen­se ou de sécu­ri­té natio­na­le est uti­li­sé en dehors de cel­les-ci, tem­po­rai­re­ment ou de maniè­re per­ma­nen­te, à d’aut­res fins, par exemp­le civi­les ou huma­ni­taires, d’ap­pli­ca­ti­on de la loi ou de sécu­ri­té publi­que, un tel système ent­rerait dans le champ d’ap­pli­ca­ti­on du pré­sent règlement.

Dans ce cas, l’en­ti­té uti­li­sant le système d’in­tel­li­gence arti­fi­ci­el­le à des fins aut­res que mili­taires, de défen­se ou de sécu­ri­té natio­na­le doit s’assurer de la con­for­mi­té du système d’in­tel­li­gence arti­fi­ci­el­le avec le pré­sent règle­ment, à moins que le système ne soit déjà con­for­me au pré­sent règle­ment. Les systè­mes d’IA mis sur le mar­ché ou en ser­vice à des fins exclu­si­ves, à savoir mili­taires, de défen­se ou de sécu­ri­té natio­na­le, et à une ou plu­sieurs fins non exclues, tel­les que des fins civi­les ou l’ap­pli­ca­ti­on de la loi, ent­rent dans le champ d’ap­pli­ca­ti­on du pré­sent règle­ment et les four­nis­seurs de ces systè­mes doi­vent assurer la con­for­mi­té avec le pré­sent règle­ment. Dans ces cas, le fait qu’un système d’in­tel­li­gence arti­fi­ci­el­le pui­s­se ent­rer dans le champ d’ap­pli­ca­ti­on du pré­sent règle­ment ne dev­rait pas affec­ter la pos­si­bi­li­té pour les enti­tés exer­çant des acti­vi­tés de sécu­ri­té natio­na­le, de défen­se et mili­taires, quel que soit le type d’en­ti­té exer­çant ces acti­vi­tés, d’uti­li­ser des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à des fins de sécu­ri­té natio­na­le, mili­taires et de défen­se, dont l’uti­li­sa­ti­on est exclue du champ d’ap­pli­ca­ti­on du pré­sent règle­ment. Un système d’in­tel­li­gence arti­fi­ci­el­le mis sur le mar­ché à des fins civi­les ou d’ap­pli­ca­ti­on de la loi, qui est uti­li­sé avec ou sans modi­fi­ca­ti­on à des fins mili­taires, de défen­se ou de sécu­ri­té natio­na­le, ne doit pas ent­rer dans le champ d’ap­pli­ca­ti­on du pré­sent règle­ment, quel que soit le type d’en­ti­té exer­çant ces activités.

4. Le pré­sent règle­ment ne s’ap­pli­que pas aux auto­ri­tés publi­ques d’un pays tiers ni aux orga­ni­sa­ti­ons inter­na­tio­na­les rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règle­ment en ver­tu du para­gra­phe 1, lorsque ces auto­ri­tés ou orga­ni­sa­ti­ons uti­li­sent des systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique dans le cad­re de la coopé­ra­ti­on inter­na­tio­na­le ou d’ac­cords de coopé­ra­ti­on judi­ciai­re et en matiè­re d’ap­pli­ca­ti­on de la loi con­clus avec l’U­ni­on ou avec un ou plu­sieurs États mem­bres, à con­di­ti­on que ce pays tiers ou cet­te orga­ni­sa­ti­on inter­na­tio­na­le pré­voie des garan­ties appro­priées en ce qui con­cer­ne la pro­tec­tion des droits et liber­tés fon­da­men­taux des personnes.

(22) Comp­te tenu de leur natu­re numé­ri­que, cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le dev­rai­ent rele­ver du champ d’ap­pli­ca­ti­on du pré­sent règle­ment, même s’ils ne sont pas mis sur le mar­ché, mis en ser­vice ou uti­li­sés dans l’U­ni­on. C’est le cas, par exemp­le, lorsqu’un opé­ra­teur éta­b­li dans l’U­ni­on com­man­de cer­ta­ins ser­vices à un opé­ra­teur éta­b­li dans un pays tiers en rap­port avec une acti­vi­té devant être exer­cée par un système d’in­tel­li­gence arti­fi­ci­el­le qui serait qua­li­fié de à haut ris­que. Dans ces cir­con­stances, le système d’in­tel­li­gence arti­fi­ci­el­le uti­li­sé dans un pays tiers par l’opé­ra­teur pour­rait trai­ter des don­nées coll­ec­tées léga­le­ment dans l’U­ni­on et trans­fé­rées depuis cel­le-ci, et four­nir à l’opé­ra­teur con­trac­tant dans l’U­ni­on la sor­tie de ce système d’in­tel­li­gence arti­fi­ci­el­le résul­tant de ce trai­te­ment, sans que ce système d’in­tel­li­gence arti­fi­ci­el­le ne soit mis sur le mar­ché, mis en ser­vice ou uti­li­sé dans l’U­ni­on. Afin d’é­vi­ter le con­tour­ne­ment du pré­sent règle­ment et d’assurer une pro­tec­tion effi­cace des per­son­nes phy­si­ques éta­b­lies dans l’U­ni­on, le pré­sent règle­ment dev­rait éga­le­ment s’ap­pli­quer aux four­nis­seurs et aux pre­sta­tai­res de systè­mes d’in­tel­li­gence arti­fi­ci­el­le étab­lis dans un pays tiers, dans la mesu­re où la sor­tie pro­duite par ces systè­mes est desti­née à être uti­li­sée dans l’Union.

Néan­mo­ins, afin de tenir comp­te des arran­ge­ments exi­stants et des beso­ins par­ti­cu­liers en matiè­re de coopé­ra­ti­on future avec des par­ten­aires étran­gers avec les­quels des infor­ma­ti­ons et des preu­ves sont échan­gées, le pré­sent règle­ment ne dev­rait pas s’ap­pli­quer aux auto­ri­tés publi­ques d’un pays tiers et aux orga­ni­sa­ti­ons inter­na­tio­na­les lorsqu’el­les agis­sent dans le cad­re de la coopé­ra­ti­on ou d’ac­cords inter­na­ti­on­aux con­clus au niveau de l’U­ni­on ou au niveau natio­nal pour la coopé­ra­ti­on en matiè­re d’ap­pli­ca­ti­on de la loi et la coopé­ra­ti­on judi­ciai­re avec l’U­ni­on ou les États mem­bres, à con­di­ti­on que le pays tiers ou l’or­ga­ni­sa­ti­on inter­na­tio­na­le concerné(e) pré­voie des garan­ties suf­fi­san­tes en ce qui con­cer­ne la pro­tec­tion des droits et liber­tés fon­da­men­taux des per­son­nes. Le cas échéant, cela peut cou­vr­ir les acti­vi­tés des enti­tés char­gées par les pays tiers d’exé­cu­ter des tâches spé­ci­fi­ques à l’ap­pui de cet­te coopé­ra­ti­on en matiè­re d’ap­pli­ca­ti­on de la loi et de coopé­ra­ti­on judi­ciai­re. De tels cad­res de coopé­ra­ti­on ou accords ont été étab­lis bila­té­ra­le­ment ent­re les États mem­bres et les pays tiers ou ent­re l’U­ni­on euro­pé­en­ne, Euro­pol et d’aut­res agen­ces de l’U­ni­on et des pays tiers et des orga­ni­sa­ti­ons inter­na­tio­na­les. Les auto­ri­tés char­gées de la sur­veil­lan­ce des auto­ri­tés judi­ciai­res et des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi en ver­tu du pré­sent règle­ment dev­rai­ent éva­luer si ces cad­res de coopé­ra­ti­on ou accords inter­na­ti­on­aux com­portent des garan­ties suf­fi­san­tes en ce qui con­cer­ne la pro­tec­tion des droits et des liber­tés fon­da­men­taux des per­son­nes. Les auto­ri­tés natio­na­les béné­fi­ci­ai­res et les insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on qui uti­li­sent de tels extrants dans l’U­ni­on restent tenus de veil­ler à ce que leur uti­li­sa­ti­on soit con­for­me au droit de l’U­ni­on. Lorsque ces accords inter­na­ti­on­aux sont révi­sés ou que de nou­veaux accords sont con­clus à l’a­ve­nir, les par­ties con­trac­tan­tes dev­rai­ent fai­re tout leur pos­si­ble pour les rend­re con­for­mes aux exi­gen­ces du pré­sent règlement.

5. Le pré­sent règle­ment n’af­fec­te pas l’ap­pli­ca­ti­on des dis­po­si­ti­ons rela­ti­ves à la responsa­bi­li­té des pre­sta­tai­res de ser­vices inter­mé­di­ai­res énon­cées au cha­pit­re II du règle­ment (UE) 2022/2065.

(11) Le pré­sent règle­ment doit s’ap­pli­quer sans pré­ju­di­ce des dis­po­si­ti­ons rela­ti­ves à la responsa­bi­li­té des pre­sta­tai­res de ser­vices inter­mé­di­ai­res énon­cées dans le règle­ment (UE) 2022/2065 du Par­le­ment euro­pé­en et du Conseil .

6. Le pré­sent règle­ment ne s’ap­pli­que pas aux systè­mes ou modè­les d’in­tel­li­gence arti­fi­ci­el­le, y com­pris leurs résul­tats, spé­cia­le­ment con­çus et mis en ser­vice aux seu­les fins de la recher­che et du déve­lo­p­pe­ment scientifiques.

(25) Ce règle­ment doit sou­te­nir l’in­no­va­ti­on, respec­ter la liber­té de la sci­ence et ne doit pas ent­ra­ver les acti­vi­tés de recher­che et de déve­lo­p­pe­ment. Il est donc néces­saire d’ex­clu­re de son champ d’ap­pli­ca­ti­on les systè­mes et modè­les d’in­tel­li­gence arti­fi­ci­el­le spé­cia­le­ment con­çus et mis en ser­vice dans le seul but de la recher­che et du déve­lo­p­pe­ment sci­en­ti­fi­ques. En out­re, il est néces­saire de s’assurer que le pré­sent règle­ment n’af­fec­te pas autre­ment les acti­vi­tés de recher­che et de déve­lo­p­pe­ment sci­en­ti­fi­ques sur les systè­mes ou modè­les d’IA avant leur mise sur le mar­ché ou leur mise en ser­vice. En ce qui con­cer­ne les acti­vi­tés de recher­che, de test et de déve­lo­p­pe­ment axées sur les pro­duits con­cer­nant les systè­mes ou modè­les d’IA, les dis­po­si­ti­ons du pré­sent règle­ment ne doi­vent pas non plus s’ap­pli­quer avant que ces systè­mes et modè­les ne soi­ent mis en ser­vice ou pla­cés sur le mar­ché. Cet­te exclu­si­on est sans pré­ju­di­ce de l’ob­li­ga­ti­on de se con­for­mer au pré­sent règle­ment lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règle­ment est mis sur le mar­ché ou mis en ser­vice à la suite d’u­ne tel­le acti­vi­té de recher­che et de déve­lo­p­pe­ment, ain­si que de l’ap­pli­ca­ti­on des dis­po­si­ti­ons rela­ti­ves aux sand­bo­xes et aux essais régle­men­tai­res en matiè­re d’in­tel­li­gence arti­fi­ci­el­le dans les con­di­ti­ons du mon­de réel.

En out­re, sans pré­ju­di­ce de l’ex­clu­si­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le spé­cia­le­ment con­çus et mis en ser­vice dans le seul but de la recher­che et du déve­lo­p­pe­ment sci­en­ti­fi­ques, tout aut­re système d’in­tel­li­gence arti­fi­ci­el­le sus­cep­ti­ble d’êt­re uti­li­sé pour la con­duite d’u­ne quel­con­que acti­vi­té de recher­che et de déve­lo­p­pe­ment dev­rait rester sou­mis aux dis­po­si­ti­ons du pré­sent règle­ment. En tout état de cau­se, tou­te acti­vi­té de recher­che et de déve­lo­p­pe­ment doit être menée con­for­mé­ment aux nor­mes éthi­ques et pro­fes­si­on­nel­les recon­nues en matiè­re de recher­che sci­en­ti­fi­que et doit être con­for­me à la légis­la­ti­on de l’U­ni­on applicable.

7. Le droit de l’U­ni­on euro­pé­en­ne rela­tif à la pro­tec­tion des don­nées à carac­tère per­son­nel, à la vie pri­vée et à la con­fi­den­tia­li­té des com­mu­ni­ca­ti­ons s’ap­pli­que aux don­nées à carac­tère per­son­nel trai­tées dans le cad­re des droits et obli­ga­ti­ons pré­vus par le pré­sent règle­ment. Le pré­sent règle­ment n’af­fec­te pas le règle­ment (UE) 2016/679 ou (UE) 2018/1725, ou la direc­ti­ve 2002/58/CE ou (UE) 2016/680, sans pré­ju­di­ce de l’ar­tic­le 10, para­gra­phe 5, et de l’ar­tic­le 59 du pré­sent règlement.

(9) Des règles har­mo­ni­sées appli­ca­bles à la mise sur le mar­ché, à la mise en ser­vice et à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que dev­rai­ent être éta­b­lies de maniè­re cohé­ren­te avec le règle­ment (CE) n° 765/2008 du Par­le­ment euro­pé­en et du Con­seil, la décis­i­on n° 768/2008/CE du Par­le­ment euro­pé­en et du Con­seil et le règle­ment (UE) 2019/1020 du Par­le­ment euro­pé­en et du Con­seil (nou­veau cad­re légis­la­tif). Les règles har­mo­ni­sées énon­cées dans le pré­sent règle­ment dev­rai­ent s’ap­pli­quer à tous les sec­teurs et, con­for­mé­ment au nou­veau cad­re légis­la­tif, ne dev­rai­ent pas por­ter pré­ju­di­ce au droit com­mun­au­tai­re exi­stant, notam­ment en matiè­re de pro­tec­tion des don­nées, de pro­tec­tion des con­som­ma­teurs, de droits fon­da­men­taux, d’em­ploi et de pro­tec­tion des tra­vail­leurs, et de sécu­ri­té des pro­duits, auquel le pré­sent règle­ment est com­plé­men­tai­re. En con­sé­quence, tous les droits et recours pré­vus par ce droit de l’U­ni­on à l’é­gard des con­som­ma­teurs et des aut­res per­son­nes sur les­quel­les les systè­mes d’in­tel­li­gence arti­fi­ci­el­le peu­vent avoir un impact néga­tif, y com­pris en ce qui con­cer­ne l’in­dem­ni­sa­ti­on des dom­mages éven­tuels con­for­mé­ment à la direc­ti­ve 85/374/CEE du Conseil10 , restent inchan­gés et plei­ne­ment applicables.

En out­re, dans le con­tex­te de l’em­ploi et de la pro­tec­tion des tra­vail­leurs, le pré­sent règle­ment ne dev­rait donc pas affec­ter la légis­la­ti­on de l’U­ni­on en matiè­re de poli­tique socia­le et la légis­la­ti­on natio­na­le du tra­vail, con­for­me au droit de l’U­ni­on, con­cer­nant l’em­ploi et les con­di­ti­ons de tra­vail, y com­pris la san­té et la sécu­ri­té au tra­vail et les rela­ti­ons ent­re employeurs et tra­vail­leurs. Le pré­sent règle­ment ne dev­rait pas non plus affec­ter l’e­xer­ci­ce des droits fon­da­men­taux tels qu’ils sont recon­nus dans les États mem­bres et au niveau de l’U­ni­on, y com­pris le droit ou la liber­té de fai­re grè­ve ou d’entre­prend­re tou­te aut­re action cou­ver­te par les systè­mes de rela­ti­ons indu­stri­el­les spé­ci­fi­ques en vigueur dans les États mem­bres, ain­si que le droit de négo­cier, de con­clu­re et d’ap­pli­quer des con­ven­ti­ons coll­ec­ti­ves ou de mener des actions coll­ec­ti­ves con­for­mé­ment au droit national.

Le pré­sent règle­ment ne dev­rait pas affec­ter les dis­po­si­ti­ons visa­nt à amé­lio­rer les con­di­ti­ons de tra­vail dans le tra­vail de pla­te­for­me pré­vues par une direc­ti­ve du Par­le­ment euro­pé­en et du Con­seil con­cer­nant l’a­mé­lio­ra­ti­on des con­di­ti­ons de tra­vail dans le sec­teur du tra­vail de pla­te­for­me. En out­re, ce règle­ment vise à ren­forcer l’ef­fi­ca­ci­té de ces droits et mesu­res exi­stants en éta­blis­sant des exi­gen­ces et des obli­ga­ti­ons spé­ci­fi­ques, y com­pris en ce qui con­cer­ne la trans­pa­rence, la docu­men­ta­ti­on tech­ni­que et le sui­vi des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. En out­re, les obli­ga­ti­ons impo­sées aux dif­fér­ents opé­ra­teurs impli­qués dans la chaî­ne de valeur de l’IA en ver­tu du pré­sent règle­ment dev­rai­ent s’ap­pli­quer sans pré­ju­di­ce du droit natio­nal, dans le respect du droit de l’U­ni­on, et avoir pour effet de limi­ter l’uti­li­sa­ti­on de cer­ta­ins systè­mes d’IA lorsque ce droit sort du champ d’ap­pli­ca­ti­on du pré­sent règle­ment ou pour­su­it des objec­tifs d’in­té­rêt public légiti­mes aut­res que ceux visés par le pré­sent règle­ment. Par exemp­le, le droit natio­nal du tra­vail et le droit rela­tif à la pro­tec­tion des mineurs, c’est-à-dire des per­son­nes âgées de moins de 18 ans, comp­te tenu de l’ob­ser­va­ti­on géné­ra­le n° 25 (2021) de la CNUCED sur les droits de l’en­fant dans le cad­re de l’en­vi­ron­ne­ment numé­ri­que, dans la mesu­re où ils ne sont pas spé­ci­fi­ques aux systè­mes d’IA et pour­suivent d’aut­res objec­tifs d’in­té­rêt public légiti­mes, ne dev­rai­ent pas être affec­tés par le pré­sent règlement.

(10) Le droit fon­da­men­tal à la pro­tec­tion des don­nées à carac­tère per­son­nel est garan­ti en par­ti­cu­lier par les règle­ments (UE) 2016/679 et (UE) 2018/1725 du Par­le­ment euro­pé­en et du Con­seil et par la direc­ti­ve (UE) 2016/680 du Par­le­ment euro­pé­en et du Con­seil. La direc­ti­ve 2002/58/CE du Par­le­ment euro­pé­en et du Con­seil pro­tège en out­re la vie pri­vée et la con­fi­den­tia­li­té des com­mu­ni­ca­ti­ons, notam­ment en pré­voyant des con­di­ti­ons pour tout stocka­ge de don­nées per­son­nel­les et non per­son­nel­les dans des équi­pe­ments ter­minaux et pour tout accès à par­tir de ces équi­pe­ments. Ces actes juri­di­ques de l’U­ni­on four­nis­sent la base d’un trai­te­ment des don­nées dura­ble et responsable, y com­pris lorsque les ensem­bles de don­nées com­pren­nent un mélan­ge de don­nées per­son­nel­les et non per­son­nel­les. Le pré­sent règle­ment ne cher­che pas à affec­ter l’ap­pli­ca­ti­on de la légis­la­ti­on euro­pé­en­ne exi­stan­te en matiè­re de trai­te­ment des don­nées à carac­tère per­son­nel, y com­pris les tâches et les pou­voirs des auto­ri­tés de con­trô­le indé­pen­dan­tes char­gées de veil­ler au respect de ces instruments.

Elle n’af­fec­te pas non plus les obli­ga­ti­ons des four­nis­seurs et des déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans leur rôle de con­trô­leurs de don­nées ou de pro­ce­s­seurs décou­lant du droit de l’U­ni­on ou du droit natio­nal en matiè­re de pro­tec­tion des don­nées à carac­tère per­son­nel, dans la mesu­re où la con­cep­ti­on, le déve­lo­p­pe­ment ou l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le impli­quent le trai­te­ment de don­nées à carac­tère per­son­nel. Il con­vi­ent éga­le­ment de pré­cis­er que les per­son­nes con­cer­nées con­ti­nuent de jouir de tous les droits et garan­ties qui leur sont accor­dés par le droit de l’U­ni­on, y com­pris les droits liés à la pri­se de décis­i­on indi­vi­du­el­le entiè­re­ment auto­ma­ti­sée, y com­pris le pro­fi­la­ge. Des règles har­mo­ni­sées pour la mise sur le mar­ché, la mise en ser­vice et l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le étab­lis en ver­tu du pré­sent règle­ment dev­rai­ent faci­li­ter la mise en œuvre effec­ti­ve et per­mett­re l’e­xer­ci­ce des droits des per­son­nes con­cer­nées et des aut­res droits garan­tis par le droit de l’U­ni­on en matiè­re de pro­tec­tion des don­nées à carac­tère per­son­nel et des aut­res droits fondamentaux.

8. Le pré­sent règle­ment ne s’ap­pli­que pas à tou­te acti­vi­té de recher­che, de test ou de déve­lo­p­pe­ment con­cer­nant des systè­mes ou des modè­les d’in­tel­li­gence arti­fi­ci­el­le avant leur mise sur le mar­ché ou leur mise en ser­vice. Ces acti­vi­tés doi­vent être menées con­for­mé­ment à la légis­la­ti­on de l’U­ni­on appli­ca­ble. Les essais en con­di­ti­ons réel­les ne sont pas cou­verts par cet­te exclusion.

9. Le pré­sent règle­ment ne pré­ju­ge pas des règles fixées par d’aut­res actes légis­la­tifs de l’U­ni­on rela­tifs à la pro­tec­tion des con­som­ma­teurs et à la sécu­ri­té des produits.

10. Le pré­sent règle­ment ne s’ap­pli­que pas aux obli­ga­ti­ons des per­son­nes phy­si­ques qui uti­li­sent des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le cad­re d’u­ne acti­vi­té non pro­fes­si­on­nel­le pure­ment personnelle.

11. Le pré­sent règle­ment n’empêche pas l’U­ni­on ou les États mem­bres de main­te­nir ou d’in­tro­dui­re des dis­po­si­ti­ons légis­la­ti­ves, régle­men­tai­res ou admi­ni­stra­ti­ves plus favor­ables aux tra­vail­leurs en ce qui con­cer­ne la pro­tec­tion de leurs droits en matiè­re d’uti­li­sa­ti­on des systè­mes d’assu­rance-inva­li­di­té par les employeurs, ni d’en­cou­ra­ger ou de per­mett­re l’ap­pli­ca­ti­on de con­ven­ti­ons coll­ec­ti­ves plus favor­ables aux travailleurs.

12. Le pré­sent règle­ment ne s’ap­pli­que pas aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le publiés sous licen­ces libres et open source, sauf s’ils sont mis sur le mar­ché ou mis en ser­vice en tant que systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que ou en tant que systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant des artic­les 5 ou 50.

(103) Les com­po­sants AI libres et open-source cou­vrent les logi­ciels et les don­nées, y com­pris les modè­les et les modè­les AI à usa­ge géné­ral, les outils, les ser­vices ou les pro­ce­s­sus d’un système AI. Les com­po­sants d’IA gra­tuits et à source ouver­te peu­vent être four­nis par dif­fér­ents moy­ens, y com­pris leur déve­lo­p­pe­ment sur des bases de don­nées ouver­tes. Aux fins du pré­sent règle­ment, les com­po­sants d’IA qui sont four­nis cont­re un prix ou autre­ment moné­ti­sés, notam­ment par la four­ni­tu­re d’un sup­port tech­ni­que ou d’aut­res ser­vices, y com­pris par le biais d’u­ne pla­te­for­me logi­ciel­le, liés au com­po­sant d’IA, ou l’uti­li­sa­ti­on de don­nées à carac­tère per­son­nel pour des rai­sons aut­res que l’a­mé­lio­ra­ti­on de la sécu­ri­té, de la com­pa­ti­bi­li­té ou de l’in­teropé­ra­bi­li­té du logi­ciel, à l’ex­cep­ti­on des tran­sac­tions ent­re micro-ent­re­pri­ses, ne doi­vent pas béné­fi­ci­er des excep­ti­ons pré­vues pour les com­po­sants d’IA libres et open source. Le fait de mett­re à dis­po­si­ti­on des com­po­sants IA par le biais de dépôts ouverts ne dev­rait pas con­sti­tuer en soi une monétisation.

(104)Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral qui sont publiés sous une licence lib­re et ouver­te et dont les paramè­tres, y com­pris les poids, les infor­ma­ti­ons sur l’ar­chi­tec­tu­re du modè­le et les infor­ma­ti­ons sur l’uti­li­sa­ti­on du modè­le, sont ren­dus publics, dev­rai­ent être sou­mis à des excep­ti­ons en ce qui con­cer­ne les exi­gen­ces de trans­pa­rence impo­sées aux modè­les d’IA à usa­ge géné­ral, sauf s’ils peu­vent être con­sidé­rés com­me pré­sen­tant un ris­que sys­té­mi­que, auquel cas la cir­con­stance que le modè­le est trans­pa­rent et accom­pa­gné d’u­ne licence ouver­te ne dev­rait pas être con­sidé­rée com­me une rai­son suf­fi­san­te pour exclu­re la con­for­mi­té aux obli­ga­ti­ons pré­vues par le pré­sent règle­ment. En tout état de cau­se, étant don­né que la publi­ca­ti­on de modè­les d’IA à usa­ge géné­ral sous licence lib­re et open-source ne révè­le pas néces­saire­ment d’in­for­ma­ti­ons sub­stan­ti­el­les sur l’en­sem­ble des don­nées uti­li­sées pour l’en­traî­ne­ment ou le rég­la­ge fin du modè­le et sur la maniè­re dont le respect du droit d’au­teur a été assu­ré par ce biais, l’ex­cep­ti­on pré­vue pour les modè­les d’IA à usa­ge géné­ral à la con­for­mi­té avec les exi­gen­ces en matiè­re de trans­pa­rence ne dev­rait pas con­cer­ner l’ob­li­ga­ti­on de pro­dui­re un résu­mé du con­te­nu uti­li­sé pour la for­ma­ti­on du modè­le et l’ob­li­ga­ti­on de mett­re en place une poli­tique de con­for­mi­té avec la légis­la­ti­on de l’U­ni­on sur le droit d’au­teur, en par­ti­cu­lier d’i­den­ti­fier et de se con­for­mer à la réser­va­ti­on des droits con­for­mé­ment à l’ar­tic­le 4, para­gra­phe 3, de la direc­ti­ve (UE) 2019/790 du Par­le­ment euro­pé­en et du Conseil .

(118) Le pré­sent règle­ment régle­men­te les systè­mes et modè­les d’in­tel­li­gence arti­fi­ci­el­le en impo­sant cer­tai­nes exi­gen­ces et obli­ga­ti­ons aux acteurs du mar­ché con­cer­nés qui les pla­cent sur le mar­ché, les met­tent en ser­vice ou les uti­li­sent dans l’U­ni­on, com­plé­tant ain­si les obli­ga­ti­ons impo­sées aux four­nis­seurs de ser­vices inter­mé­di­ai­res qui intègrent de tels systè­mes ou modè­les dans leurs ser­vices, régies par le règle­ment (UE) 2022/2065. Dans la mesu­re où ces systè­mes ou modè­les sont inté­g­rés dans la con­cep­ti­on de très gran­des pla­te­for­mes en ligne ou de très grands moteurs de recher­che en ligne, ils sont sou­mis au cad­re de gesti­on des ris­ques pré­vu par le règle­ment (UE) 2022/2065. Par con­sé­quent, les obli­ga­ti­ons cor­re­spond­an­tes du pré­sent règle­ment dev­rai­ent être pré­su­mées rem­plies, à moins que des ris­ques sys­té­mi­ques signi­fi­ca­tifs non cou­verts par le règle­ment (UE) 2022/2065 n’ap­pa­rais­sent et ne soi­ent iden­ti­fi­és dans de tels modè­les. Dans ce cad­re, les four­nis­seurs de très gran­des pla­te­for­mes en ligne et de très grands moteurs de recher­che en ligne sont tenus d’éva­luer les ris­ques sys­té­mi­ques poten­tiels décou­lant de la con­cep­ti­on, du fonc­tion­ne­ment et de l’uti­li­sa­ti­on de leurs ser­vices, y com­pris la maniè­re dont la con­cep­ti­on des systè­mes algo­rith­mi­ques uti­li­sés dans le ser­vice peut con­tri­buer à de tels ris­ques, ain­si que les ris­ques sys­té­mi­ques décou­lant d’err­eurs poten­ti­el­les. Ces four­nis­seurs sont éga­le­ment tenus de prend­re des mesu­res d’at­té­nua­ti­on appro­priées dans le respect des droits fondamentaux.

(119) Comp­te tenu du ryth­me rapi­de de l’in­no­va­ti­on et de l’é­vo­lu­ti­on tech­no­lo­gi­que des ser­vices numé­ri­ques dans le cad­re de dif­fér­ents instru­ments de la légis­la­ti­on de l’U­ni­on, en par­ti­cu­lier en ayant à l’e­sprit l’uti­li­sa­ti­on et la per­cep­ti­on de leurs desti­na­tai­res, les systè­mes d’IA visés par le pré­sent règle­ment peu­vent être four­nis en tant que ser­vices inter­mé­di­ai­res ou par­ties de ceux-ci au sens du règle­ment (UE) 2022/2065, qui dev­rait être inter­pré­té d’u­ne maniè­re neu­tre sur le plan tech­no­lo­gi­que. Par exemp­le, les systè­mes d’IA peu­vent être uti­li­sés pour four­nir des moteurs de recher­che en ligne, en par­ti­cu­lier dans la mesu­re où un système d’IA tel qu’un chat­bot en ligne effec­tue des recher­ches sur, en prin­ci­pe, tous les sites web, puis intèg­re les résul­tats dans ses con­nais­sances exi­stan­tes et uti­li­se les con­nais­sances mises à jour pour géné­rer une sor­tie uni­que qui com­bi­ne dif­fé­ren­tes sources d’informations.

(120) En out­re, les obli­ga­ti­ons impo­sées aux four­nis­seurs et aux déployeurs de cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le par le pré­sent règle­ment pour per­mett­re la détec­tion et la divul­ga­ti­on du fait que les résul­tats de ces systè­mes sont géné­rés ou mani­pulés de maniè­re arti­fi­ci­el­le sont par­ti­cu­liè­re­ment per­ti­nen­tes pour faci­li­ter la mise en œuvre effec­ti­ve du règle­ment (UE) 2022/2065. Cela s’ap­pli­que en par­ti­cu­lier en ce qui con­cer­ne les obli­ga­ti­ons des four­nis­seurs de très gran­des pla­te­for­mes en ligne ou de très grands moteurs de recher­che en ligne d’i­den­ti­fier et d’at­té­nuer les ris­ques sys­té­mi­ques qui pour­rai­ent résul­ter de la dif­fu­si­on de con­te­nus qui ont été géné­rés ou mani­pulés arti­fi­ci­el­le­ment, en par­ti­cu­lier le ris­que d’ef­fets néga­tifs réels ou pré­vi­si­bles sur les pro­ce­s­sus démo­cra­ti­ques, le dis­cours civi­que et les pro­ce­s­sus élec­toraux, y com­pris par le biais de la désinformation.

(121)La nor­ma­li­sa­ti­on dev­rait jouer un rôle clé dans la four­ni­tu­re de solu­ti­ons tech­ni­ques aux four­nis­seurs afin d’assurer la con­for­mi­té avec le pré­sent règle­ment, con­for­mé­ment à l’é­tat de l’art, et de pro­mou­voir l’in­no­va­ti­on ain­si que la com­pé­ti­ti­vi­té et la crois­sance sur le mar­ché uni­que. La con­for­mi­té aux nor­mes har­mo­ni­sées défi­nies à l’ar­tic­le 2, point (1)(c), du règle­ment (UE) n° 1025/2012 du Par­le­ment euro­pé­en et du Con­seil , qui sont nor­ma­le­ment cen­sées reflé­ter l’é­tat de l’art, dev­rait être un moy­en pour les four­nis­seurs de démon­trer la con­for­mi­té aux exi­gen­ces du pré­sent règle­ment. Il con­vi­ent donc d’en­cou­ra­ger une repré­sen­ta­ti­on équi­li­brée des inté­rêts de tou­tes les par­ties pren­an­tes con­cer­nées par l’é­la­bo­ra­ti­on des nor­mes, en par­ti­cu­lier les PME, les orga­ni­sa­ti­ons de con­som­ma­teurs et les par­ties pren­an­tes envi­ron­ne­men­ta­les et socia­les, con­for­mé­ment aux artic­les 5 et 6 du règle­ment (UE) no 1025/2012. Afin de faci­li­ter la con­for­mi­té, les deman­des de nor­ma­li­sa­ti­on dev­rai­ent être émi­ses par la Com­mis­si­on sans retard exce­s­sif. Lors de la pré­pa­ra­ti­on de la deman­de de nor­ma­li­sa­ti­on, la Com­mis­si­on dev­rait con­sul­ter le forum con­sul­ta­tif et le con­seil d’ad­mi­ni­stra­ti­on afin de recu­eil­lir l’ex­per­ti­se per­ti­nen­te. Tou­te­fois, en l’ab­sence de réfé­ren­ces per­ti­nen­tes à des nor­mes har­mo­ni­sées, la Com­mis­si­on dev­rait être en mesu­re d’é­ta­b­lir, par le biais d’ac­tes d’exé­cu­ti­on et après con­sul­ta­ti­on du forum con­sul­ta­tif, des spé­ci­fi­ca­ti­ons com­mu­nes pour cer­tai­nes exi­gen­ces pré­vues par le pré­sent règlement.

La spé­ci­fi­ca­ti­on com­mu­ne dev­rait être une solu­ti­on de repli excep­ti­on­nel­le pour faci­li­ter l’ob­li­ga­ti­on du pre­sta­tai­re de se con­for­mer aux exi­gen­ces du pré­sent règle­ment, lorsque la deman­de de nor­ma­li­sa­ti­on n’a pas été accep­tée par l’un des orga­nis­mes euro­pé­ens de nor­ma­li­sa­ti­on, ou lorsque les nor­mes har­mo­ni­sées per­ti­nen­tes ne trai­tent pas suf­fi­sam­ment des que­sti­ons de droits fon­da­men­taux, ou lorsque les nor­mes har­mo­ni­sées ne répon­dent pas à la deman­de, ou lorsqu’il y a des retards dans l’ad­op­ti­on d’u­ne nor­me har­mo­ni­sée appro­priée. Si un tel retard dans l’ad­op­ti­on d’u­ne nor­me har­mo­ni­sée est dû à la com­ple­xi­té tech­ni­que de cet­te nor­me, la Com­mis­si­on dev­rait en tenir comp­te avant d’en­vi­sa­ger l’é­ta­blis­se­ment de spé­ci­fi­ca­ti­ons com­mu­nes. Lors de l’é­la­bo­ra­ti­on de spé­ci­fi­ca­ti­ons com­mu­nes, la Com­mis­si­on est encou­ra­gée à coopé­rer avec des par­ten­aires inter­na­ti­on­aux et des orga­nis­mes inter­na­ti­on­aux de normalisation.

Artic­le 3 Définitions

Aux fins du pré­sent règle­ment, les défi­ni­ti­ons sui­van­tes s’appliquent :

(1)Système AImeans a machi­ne-based system that is desi­gned to ope­ra­te with various levels of auto­no­my and that may exhi­bit adap­ti­ve­ness after deployment, and that, for expli­cit or impli­cit objec­ti­ves, infers, from the input it recei­ves, how to gene­ra­te out­puts such as pre­dic­tions, con­tent, recom­men­da­ti­ons, or decis­i­ons that can influence phy­si­cal or vir­tu­al environments ;

(12) La noti­on de “système IA” dans le pré­sent règle­ment dev­rait être clai­re­ment défi­nie et dev­rait être étroi­te­ment ali­g­née sur les travaux des orga­ni­sa­ti­ons inter­na­tio­na­les tra­vail­lant sur l’IA afin d’assurer la cer­ti­tu­de juri­di­que, de faci­li­ter la con­ver­gence inter­na­tio­na­le et une lar­ge accep­t­ati­on, tout en offrant la fle­xi­bi­li­té néces­saire pour s’ad­ap­ter aux évo­lu­ti­ons tech­no­lo­gi­ques rapi­des dans ce domaine. En out­re, la défi­ni­ti­on dev­rait être basée sur les carac­té­ri­sti­ques clés des systè­mes d’IA qui les distin­guent des systè­mes logi­ciels ou des appro­ches de pro­gram­ma­ti­on tra­di­ti­on­nels plus simp­les et ne dev­rait pas cou­vr­ir les systè­mes qui sont basés sur les règles défi­nies uni­quement par des per­son­nes phy­si­ques pour exé­cu­ter auto­ma­ti­quement des opé­ra­ti­ons. Une carac­té­ri­stique clé des systè­mes IA est leur capa­ci­té d’in­fé­rence. Cet­te capa­ci­té d’in­fé­rence se réfè­re au pro­ce­s­sus d’ob­ten­ti­on des sor­ties, tel­les que des pré­dic­tions, des con­te­nus, des recom­man­da­ti­ons ou des décis­i­ons, qui peu­vent influen­cer des envi­ron­ne­ments phy­si­ques et vir­tuels, et à une capa­ci­té des systè­mes IA à déri­ver des modè­les ou des algo­rith­mes, ou les deux, à par­tir d’en­trées ou de don­nées. Les tech­ni­ques qui per­met­tent l’in­fé­rence lors de la cons­truc­tion d’un système d’IA com­pren­nent les appro­ches d’app­ren­tis­sa­ge auto­ma­tique qui app­ren­nent à par­tir des don­nées com­ment att­eind­re cer­ta­ins objec­tifs, et les appro­ches basées sur la logi­que et les con­nais­sances qui infè­rent à par­tir de con­nais­sances enco­dées ou d’u­ne repré­sen­ta­ti­on sym­bo­li­que de la tâche à résoud­re. La capa­ci­té d’un système IA à infé­rer tran­s­cen­de le trai­te­ment de don­nées de base en per­met­tant l’app­ren­tis­sa­ge, le rai­son­ne­ment ou la modé­li­sa­ti­on. Le ter­me ‘machi­ne-based’ fait réfé­rence au fait que les systè­mes IA fonc­tion­nent sur des machines.

La réfé­rence à des objec­tifs expli­ci­tes ou impli­ci­tes souli­gne que les systè­mes d’IA peu­vent fonc­tion­ner con­for­mé­ment à des objec­tifs défi­nis expli­ci­te­ment ou à des objec­tifs impli­ci­tes. Les objec­tifs du système d’IA peu­vent être dif­fér­ents de l’ob­jec­tif visé par le système d’IA dans un con­tex­te spé­ci­fi­que. Aux fins du pré­sent règle­ment, les envi­ron­ne­ments dev­rai­ent être con­sidé­rés com­me les con­tex­tes dans les­quels les systè­mes d’IA fonc­tion­nent, tan­dis que les résul­tats géné­rés par le système d’IA reflè­tent dif­fé­ren­tes fonc­tions exé­cu­tées par les systè­mes d’IA et com­pren­nent des pré­dic­tions, des con­te­nus, des recom­man­da­ti­ons ou des décis­i­ons. Les systè­mes d’IA sont con­çus pour fonc­tion­ner avec dif­fér­ents niveaux d’au­to­no­mie, c’est-à-dire qu’ils ont un cer­tain degré d’in­dé­pen­dance d’ac­tion par rap­port à l’im­pli­ca­ti­on humaine et des capa­ci­tés à fonc­tion­ner sans inter­ven­ti­on humaine. La capa­ci­té d’ad­ap­t­ati­on qu’un système IA pour­rait mani­fe­ster après son déploie­ment fait réfé­rence à des capa­ci­tés d’au­to-app­ren­tis­sa­ge, per­met­tant au système de chan­ger pen­dant son uti­li­sa­ti­on. Les systè­mes IA peu­vent être uti­li­sés de maniè­re auto­no­me ou en tant que com­po­sant d’un pro­duit, que le système soit phy­si­quement inté­g­ré dans le pro­duit (embar­qué) ou qu’il ser­ve la fonc­tion­na­li­té du pro­duit sans y être inté­g­ré (non embarqué).

(2)ris­queLa noti­on de “ris­que” dési­gne la com­bi­nai­son de la pro­ba­bi­li­té d’oc­cur­rence d’un dom­mage et de la sévé­ri­té de ce dommage ;

(3)four­nis­seurdési­gne une per­son­ne phy­si­que ou mora­le, une auto­ri­té publi­que, une agence ou un aut­re orga­nis­me qui déve­lo­p­pe un système d’in­tel­li­gence arti­fi­ci­el­le ou un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, ou qui a déve­lo­p­pé un système d’in­tel­li­gence arti­fi­ci­el­le ou un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral et le met sur le mar­ché ou met en ser­vice le système d’in­tel­li­gence arti­fi­ci­el­le sous son pro­pre nom ou sa pro­pre mar­que, que ce soit à tit­re oné­reux ou gratuit ;

(4)deployer’ dési­gne une per­son­ne phy­si­que ou mora­le, une auto­ri­té publi­que, une agence ou un aut­re orga­nis­me uti­li­sant un système IA sous son auto­ri­té, sauf lorsque le système IA est uti­li­sé dans le cad­re d’u­ne acti­vi­té per­son­nel­le non professionnelle ;

(13) La noti­on de “déployeur” men­ti­onnée dans le pré­sent règle­ment doit être inter­pré­tée com­me désignant tou­te per­son­ne phy­si­que ou mora­le, y com­pris une auto­ri­té publi­que, une agence ou un aut­re orga­nis­me, uti­li­sant un système d’in­tel­li­gence arti­fi­ci­el­le sous son auto­ri­té, sauf lorsque le système d’in­tel­li­gence arti­fi­ci­el­le est uti­li­sé dans le cad­re d’u­ne acti­vi­té per­son­nel­le non pro­fes­si­on­nel­le. En fonc­tion du type de système d’IA, l’uti­li­sa­ti­on du système peut affec­ter des per­son­nes aut­res que le déployeur.

(5)repré­sen­tant auto­ri­sédési­gne une per­son­ne phy­si­que ou mora­le située ou éta­b­lie dans l’U­ni­on qui a reçu et accep­té un man­dat écrit d’un four­nis­seur d’un système d’in­tel­li­gence arti­fi­ci­el­le ou d’un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral pour, respec­ti­ve­ment, exé­cu­ter et mett­re en œuvre en son nom les obli­ga­ti­ons et les pro­cé­du­res éta­b­lies par le pré­sent règlement ;

(6)importerPar “per­son­ne phy­si­que ou mora­le”, on entend une per­son­ne phy­si­que ou mora­le éta­b­lie ou domic­i­liée dans l’U­ni­on qui met sur le mar­ché un système d’i­den­ti­fi­ca­ti­on auto­ma­tique portant le nom ou la mar­que d’u­ne per­son­ne phy­si­que ou mora­le éta­b­lie dans un pays tiers ;

(7)dis­tri­bu­teursigni­fie une per­son­ne phy­si­que ou mora­le dans la chaî­ne d’ap­pro­vi­si­on­ne­ment, aut­re que le four­nis­seur ou l’im­por­ta­teur, qui met un système IA à dis­po­si­ti­on sur le mar­ché de l’Union ;

(8)opé­ra­teur’ signi­fie un four­nis­seur, un fab­ri­cant de pro­duits, un déployeur, un repré­sen­tant agréé, un impor­ta­teur ou un distributeur ;

(9)mise sur le mar­chéLa pre­miè­re mise à dis­po­si­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le ou d’un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral sur le mar­ché de l’Union ;

(10)mise à dis­po­si­ti­on sur le mar­chéOn entend par “four­ni­tu­re” la liv­rai­son d’un système d’in­tel­li­gence arti­fi­ci­el­le ou d’un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral en vue de sa dis­tri­bu­ti­on ou de son uti­li­sa­ti­on sur le mar­ché de l’U­ni­on dans le cad­re d’u­ne acti­vi­té com­mer­cia­le, que ce soit en éch­an­ge d’un pai­ement ou à tit­re gratuit ;

(11)mett­re en ser­viceOn entend par “liv­rai­son” la four­ni­tu­re d’un système d’in­tel­li­gence arti­fi­ci­el­le en vue d’u­ne pre­miè­re uti­li­sa­ti­on direc­te­ment chez le desti­na­tai­re ou d’u­ne uti­li­sa­ti­on pro­pre dans l’U­ni­on, con­for­mé­ment à l’u­sa­ge auquel il est destiné ;

(12)inten­ded pur­po­sesigni­fie l’uti­li­sa­ti­on pour laquel­le un système d’in­tel­li­gence arti­fi­ci­el­le est pré­vu par le four­nis­seur, y com­pris le con­tex­te et les con­di­ti­ons d’uti­li­sa­ti­on spé­ci­fi­ques, tels que spé­ci­fi­és dans les infor­ma­ti­ons four­nies par le four­nis­seur dans les ins­truc­tions d’uti­li­sa­ti­on, le maté­ri­el pro­mo­ti­on­nel ou de ven­te et les décla­ra­ti­ons, ain­si que dans la docu­men­ta­ti­on technique ;

(13)rea­son­ab­ly fore­seeable abusL’uti­li­sa­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le d’u­ne maniè­re qui n’est pas con­for­me à sa fina­li­té, mais qui peut résul­ter d’un com­porte­ment humain pré­vi­si­ble ou d’u­ne inter­ac­tion avec d’aut­res systè­mes, y com­pris d’aut­res systè­mes d’in­tel­li­gence artificielle ;

(14)com­po­sant de sécu­ri­tédési­gne un com­po­sant d’un pro­duit ou d’un système d’in­tel­li­gence arti­fi­ci­el­le qui rem­plit une fonc­tion de sécu­ri­té pour ce pro­duit ou ce système d’in­tel­li­gence arti­fi­ci­el­le, ou dont la défail­lan­ce ou le dys­fonc­tion­ne­ment met en péril la san­té et la sécu­ri­té des per­son­nes ou des biens ;

(15)ins­truc­tions d’uti­li­sa­ti­onPar “infor­ma­ti­ons”, on entend les infor­ma­ti­ons four­nies par le four­nis­seur pour infor­mer le déployeur, en par­ti­cu­lier, de l’u­sa­ge pré­vu et de la bon­ne uti­li­sa­ti­on d’un système d’in­tel­li­gence artificielle ;

(16)rap­pel d’un système AI’ dési­gne tou­te mesu­re visa­nt à obte­nir le retour au four­nis­seur ou la ces­sa­ti­on de ser­vice ou le blo­ca­ge de l’uti­li­sa­ti­on d’un système IA mis à la dis­po­si­ti­on des déployeurs ;

(17)retrait d’un système d’IAsigni­fie tou­te mesu­re visa­nt à empêcher qu’un système d’IA dans la chaî­ne d’ap­pro­vi­si­on­ne­ment ne soit mis à dis­po­si­ti­on sur le marché ;

(18)per­for­mance d’un système AILa capa­ci­té d’un système d’in­tel­li­gence arti­fi­ci­el­le à att­eind­re son objec­tif est défi­nie com­me suit ;

(19)noti­fy­ing aut­ho­ri­tydési­gne l’au­to­ri­té natio­na­le responsable de l’é­ta­blis­se­ment et de la mise en œuvre des pro­cé­du­res néces­saires à l’éva­lua­ti­on, à la dési­gna­ti­on et à la noti­fi­ca­ti­on des orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té, ain­si qu’au con­trô­le de ces derniers ;

(20)éva­lua­ti­on de la con­for­mi­téLe ter­me “système d’in­for­ma­ti­on à haut ris­que” dési­gne le pro­ce­s­sus con­si­stant à démon­trer que les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, rela­ti­ves à un système d’in­for­ma­ti­on à haut ris­que ont été satisfaites ;

(21)orga­nis­me d’éva­lua­ti­on de la con­for­mi­tédési­gne un orga­nis­me qui effec­tue des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té des tiers, y com­pris les essais, la cer­ti­fi­ca­ti­on et l’inspection ;

(22)orga­nis­me noti­fiédési­gne un orga­nis­me d’éva­lua­ti­on de la con­for­mi­té noti­fié con­for­mé­ment au pré­sent règle­ment et aux aut­res légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on applicables ;

(23)modi­fi­ca­ti­on sub­stan­ti­el­leOn entend par “modi­fi­ca­ti­on d’un système d’assu­rance qua­li­té” une modi­fi­ca­ti­on appor­tée à un système d’assu­rance qua­li­té après sa mise sur le mar­ché ou sa mise en ser­vice, qui n’a pas été pré­vue ou pla­ni­fi­ée dans l’éva­lua­ti­on initia­le de la con­for­mi­té effec­tuée par le four­nis­seur et qui, par con­sé­quent, affec­te la con­for­mi­té du système d’assu­rance qua­li­té aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, ou ent­raî­ne une modi­fi­ca­ti­on de l’ob­jec­tif pour lequel le système d’assu­rance qua­li­té a été évalué ;

(24)Mar­quage CELe ter­me “système d’in­for­ma­ti­on intel­li­gent” dési­gne une mar­que par laquel­le un four­nis­seur indi­que qu’un système d’in­for­ma­ti­on intel­li­gent est con­for­me aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, et à tou­te aut­re légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on appli­ca­ble pré­voyant son apposition ;

(25)système de sur­veil­lan­ce post-mar­chéOn entend par là tou­tes les acti­vi­tés menées par les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour recu­eil­lir et exami­ner l’expé­ri­ence acqui­se lors de l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qu’ils met­tent sur le mar­ché ou en ser­vice dans le but d’i­den­ti­fier tout beso­in d’ap­pli­quer immé­dia­te­ment tou­te mesu­re cor­rec­ti­ve ou pré­ven­ti­ve nécessaire ;

(26)mar­ket sur­veil­lan­ce aut­ho­ri­tyL’ex­pres­si­on “auto­ri­té natio­na­le” dési­gne l’au­to­ri­té natio­na­le qui exer­ce les acti­vi­tés et prend les mesu­res pré­vues par le règle­ment (UE) 2019/1020 ;

(27)nor­me har­mo­ni­séeLa nor­me har­mo­ni­sée tel­le que défi­nie à l’ar­tic­le 2, para­gra­phe 1, point (c), du règle­ment (UE) n° 1025/2012 est utilisée ;

(28)spé­ci­fi­ca­ti­on com­mu­nedési­gne un ensem­ble de spé­ci­fi­ca­ti­ons tech­ni­ques tel­les que défi­nies à l’ar­tic­le 2, point (4), du règle­ment (UE) n° 1025/2012, four­nis­sant des moy­ens de se con­for­mer à cer­tai­nes exi­gen­ces éta­b­lies en ver­tu de ce règlement ;

(29)don­nées de for­ma­ti­onLes don­nées uti­li­sées pour la for­ma­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le par l’a­ju­stem­ent de ses paramè­tres d’app­ren­tis­sa­ge sont appelées ” don­nées d’apprentissage ” ;

(30)don­nées de vali­da­ti­onLes don­nées uti­li­sées pour four­nir une éva­lua­ti­on du système d’IA for­mé et pour aju­ster ses paramè­tres non ens­eig­n­ables et son pro­ce­s­sus d’app­ren­tis­sa­ge afin d’é­vi­ter, ent­re aut­res, un sous-aju­stem­ent ou un surajustement ;

(31)ensem­ble de don­nées de vali­da­ti­onL’ex­pres­si­on “ensem­ble de don­nées” dési­gne un ensem­ble de don­nées distinct ou une par­tie de l’en­sem­ble de don­nées de for­ma­ti­on, soit sous for­me de frac­tion­ne­ment fixe ou variable ;

(32)don­nées de testLe ter­me “don­nées” dési­gne les don­nées uti­li­sées pour four­nir une éva­lua­ti­on indé­pen­dan­te du système d’in­tel­li­gence arti­fi­ci­el­le afin de con­firm­er les per­for­man­ces atten­dues de ce système avant sa mise sur le mar­ché ou sa mise en service ;

(33)don­nées d’en­tréeLes don­nées four­nies à un système d’in­tel­li­gence arti­fi­ci­el­le ou acqui­ses direc­te­ment par celui-ci sur la base des­quel­les le système pro­duit une sortie ;

(34)don­nées bio­mé­tri­quesPar “don­nées à carac­tère per­son­nel”, on entend les don­nées à carac­tère per­son­nel résul­tant d’un trai­te­ment tech­ni­que spé­ci­fi­que se rap­portant aux carac­té­ri­sti­ques phy­si­ques, phy­sio­lo­gi­ques ou com­porte­men­ta­les d’u­ne per­son­ne phy­si­que, tel­les que les images facia­les ou les don­nées dactyloscopiques ;

(14) La noti­on de “don­nées bio­mé­tri­ques” uti­li­sée dans le pré­sent règle­ment doit être inter­pré­tée à la lumiè­re de la noti­on de don­nées bio­mé­tri­ques tel­le que défi­nie à l’ar­tic­le 4, point (14), du règle­ment (UE) 2016/679, à l’ar­tic­le 3, point (18), du règle­ment (UE) 2018/1725 et à l’ar­tic­le 3, point (13), de la direc­ti­ve (UE) 2016/680. Les don­nées bio­mé­tri­ques peu­vent per­mett­re l’au­then­ti­fi­ca­ti­on, l’i­den­ti­fi­ca­ti­on ou la caté­go­ri­sa­ti­on de per­son­nes phy­si­ques et la recon­nais­sance d’é­mo­ti­ons de per­son­nes physiques.

(35)iden­ti­fi­ca­ti­on bio­mé­tri­queOn entend par “recon­nais­sance auto­ma­tique de carac­té­ri­sti­ques phy­si­ques, phy­sio­lo­gi­ques, com­porte­men­ta­les ou psy­cho­lo­gi­ques d’un être humain” la recon­nais­sance auto­ma­tique de carac­té­ri­sti­ques phy­si­ques, phy­sio­lo­gi­ques, com­porte­men­ta­les ou psy­cho­lo­gi­ques d’un être humain dans le but d’é­ta­b­lir l’i­den­ti­té d’u­ne per­son­ne phy­si­que en com­parant les don­nées bio­mé­tri­ques de cet indi­vi­du avec les don­nées bio­mé­tri­ques d’in­di­vi­dus stockées dans une base de données ;

(15) La noti­on d’ ”iden­ti­fi­ca­ti­on bio­mé­tri­que” men­ti­onnée dans le pré­sent règle­ment dev­rait être défi­nie com­me la recon­nais­sance auto­ma­ti­sée de carac­té­ri­sti­ques humain­es phy­si­ques, phy­sio­lo­gi­ques et com­porte­men­ta­les, tel­les que le visa­ge, le mou­ve­ment des yeux, la for­me du corps, la voix, la pro­so­die, la démar­che, la postu­re, le ryth­me car­diaque, la pres­si­on san­gui­ne, l’o­deur, les carac­té­ri­sti­ques des tou­ch­es, dans le but d’é­ta­b­lir l’i­den­ti­té d’un indi­vi­du en com­parant les don­nées bio­mé­tri­ques de cet indi­vi­du avec les don­nées bio­mé­tri­ques d’in­di­vi­dus stockées dans une base de don­nées de réfé­rence, indé­pen­dam­ment du fait que l’in­di­vi­du ait don­né son con­sen­te­ment ou non. Cela exclut les systè­mes d’IA desti­nés à être uti­li­sés pour la véri­fi­ca­ti­on bio­mé­tri­que, qui com­prend l’au­then­ti­fi­ca­ti­on, dont le seul but est de con­firm­er qu’u­ne per­son­ne phy­si­que spé­ci­fi­que est la per­son­ne qu’el­le pré­tend être et de con­firm­er l’i­den­ti­té d’u­ne per­son­ne phy­si­que dans le seul but d’a­voir accès à un ser­vice, de déver­rouil­ler un appa­reil ou d’a­voir un accès sécu­ri­sé à des locaux.

(36)véri­fi­ca­ti­on bio­mé­tri­queOn entend par “véri­fi­ca­ti­on” la véri­fi­ca­ti­on auto­ma­ti­sée, en une seu­le fois, y com­pris l’au­then­ti­fi­ca­ti­on, de l’i­den­ti­té de per­son­nes phy­si­ques par com­pa­rai­son de leurs don­nées bio­mé­tri­ques avec des don­nées bio­mé­tri­ques pré­cé­dem­ment fournies ;

(16) La noti­on de “caté­go­ri­sa­ti­on bio­mé­tri­que” men­ti­onnée dans le pré­sent règle­ment dev­rait être défi­nie com­me l’af­fec­ta­ti­on de per­son­nes phy­si­ques à des caté­go­ries spé­ci­fi­ques sur la base de leurs don­nées bio­mé­tri­ques. Ces caté­go­ries spé­ci­fi­ques peu­vent se rap­por­ter à des aspects tels que le sexe, l’â­ge, la cou­leur des che­veux, la cou­leur des yeux, les tatouages, les traits de com­porte­ment ou de per­son­na­li­té, la lan­gue, la reli­gi­on, l’ap­par­ten­an­ce à une mino­ri­té natio­na­le, l’o­ri­en­ta­ti­on sexu­el­le ou poli­tique. Cela ne com­prend pas les systè­mes de caté­go­ri­sa­ti­on bio­mé­tri­que qui sont une fonc­tion­na­li­té pure­ment acces­soire intrin­sè­quement liée à un aut­re ser­vice com­mer­cial, c’est-à-dire que la fonc­tion­na­li­té ne peut pas être uti­li­sée sans le ser­vice prin­ci­pal pour des rai­sons tech­ni­ques objec­ti­ves, et l’in­té­gra­ti­on de cet­te fonc­tion­na­li­té ou de cet­te fonc­tion n’est pas un moy­en de con­tour­ner l’ap­pli­ca­bi­li­té des règles du pré­sent règle­ment. Par exemp­le, les fil­tres de caté­go­ri­sa­ti­on des carac­té­ri­sti­ques facia­les ou cor­po­rel­les uti­li­sés sur les sites de ven­te en ligne pour­rai­ent con­sti­tuer une tel­le carac­té­ri­stique acces­soire dans la mesu­re où ils ne peu­vent être uti­li­sés qu’en rela­ti­on avec le ser­vice prin­ci­pal qui con­si­ste à vend­re un pro­duit en per­met­tant au con­som­ma­teur de visua­li­ser l’af­fichage du pro­duit sur lui ou sur elle et d’ai­der le con­som­ma­teur à prend­re une décis­i­on d’achat. Les fil­tres uti­li­sés sur les ser­vices de réseaux soci­aux en ligne qui caté­go­ri­sent les carac­té­ri­sti­ques facia­les ou cor­po­rel­les afin de per­mett­re aux uti­li­sa­teurs d’a­jou­ter ou de modi­fier des pho­tos ou des vidé­os pour­rai­ent éga­le­ment être con­sidé­rés com­me une carac­té­ri­stique acces­soire dans la mesu­re où de tels fil­tres ne peu­vent pas être uti­li­sés sans le ser­vice prin­ci­pal des ser­vices de réseaux soci­aux con­si­stant dans le par­ta­ge du con­te­nu en ligne.

(37)caté­go­ries spé­cia­les de don­nées per­son­nel­lesLes ter­mes “caté­go­ries de don­nées à carac­tère per­son­nel” désign­ent les caté­go­ries de don­nées à carac­tère per­son­nel visées à l’ar­tic­le 9, para­gra­phe 1, du règle­ment (UE) 2016/679, à l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680 et à l’ar­tic­le 10, para­gra­phe 1, du règle­ment (UE) 2018/1725 ;

(38)don­nées opé­ra­ti­on­nel­les sen­si­blesLes ter­mes “don­nées opé­ra­ti­on­nel­les” désign­ent les don­nées rela­ti­ves aux acti­vi­tés de pré­ven­ti­on, de détec­tion, d’en­quête ou de pour­suite d’in­frac­tions péna­les, dont la divul­ga­ti­on pour­rait por­ter att­ein­te à l’in­té­gri­té de la pro­cé­du­re pénale ;

(39)système de recon­nais­sance des émo­ti­ons’ dési­gne un système d’in­tel­li­gence arti­fi­ci­el­le desti­né à iden­ti­fier ou à con­trer les émo­ti­ons ou les inten­ti­ons de per­son­nes phy­si­ques sur la base de leurs don­nées biométriques ;

(18) La noti­on de “système de recon­nais­sance des émo­ti­ons” men­ti­onnée dans le pré­sent règle­ment doit être défi­nie com­me un système d’in­tel­li­gence arti­fi­ci­el­le desti­né à iden­ti­fier ou à neu­tra­li­ser les émo­ti­ons ou les inten­ti­ons de per­son­nes phy­si­ques sur la base de leurs don­nées bio­mé­tri­ques. Cet­te noti­on se réfè­re à des émo­ti­ons ou inten­ti­ons tel­les que le bon­heur, la tri­stesse, la colè­re, la sur­pri­se, le dép­lai­sir, l’em­bar­ras, l’ex­ci­ta­ti­on, la hon­te, le mépris, la satis­fac­tion et l’a­mu­se­ment. Elle n’in­clut pas les états phy­si­ques, tels que la dou­leur ou la fati­gue, y com­pris, par exemp­le, les systè­mes uti­li­sés pour détec­ter l’é­tat de fati­gue des pilo­tes pro­fes­si­on­nels ou des con­duc­teurs dans le but de pré­ve­nir les acci­dents. Elle n’in­clut pas non plus la simp­le détec­tion d’ex­pres­si­ons, de gestes ou de mou­ve­ments aisé­ment per­cep­ti­bles, sauf s’ils sont uti­li­sés pour iden­ti­fier ou neu­tra­li­ser des émo­ti­ons. Ces expres­si­ons peu­vent être des expres­si­ons facia­les de base, tel­les qu’u­ne gri­mace ou un souri­re, ou des gestes tels que le mou­ve­ment des mains, des bras ou de la tête, ou des carac­té­ri­sti­ques de la voix d’u­ne per­son­ne, tel­les qu’u­ne voix rau­que ou des chuchotements.

(40)système de caté­go­ri­sa­ti­on bio­mé­tri­quePar “système d’i­den­ti­fi­ca­ti­on auto­ma­tique”, on entend un système d’i­den­ti­fi­ca­ti­on auto­ma­tique desti­né à attri­buer des per­son­nes phy­si­ques à des caté­go­ries spé­ci­fi­ques sur la base de leurs don­nées bio­mé­tri­ques, sauf s’il est acces­soire à un aut­re ser­vice com­mer­cial et stric­te­ment néces­saire pour des rai­sons tech­ni­ques objectives ;

(41)système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distancePar “système d’in­tel­li­gence arti­fi­ci­el­le”, on entend un système d’in­tel­li­gence arti­fi­ci­el­le desti­né à iden­ti­fier des per­son­nes phy­si­ques, sans leur par­ti­ci­pa­ti­on acti­ve, typi­quement à distance, en com­parant les don­nées bio­mé­tri­ques d’u­ne per­son­ne avec les don­nées bio­mé­tri­ques con­te­nues dans une base de don­nées de référence ;

(17) La noti­on de “système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance” men­ti­onnée dans le pré­sent règle­ment doit être défi­nie fonc­tion­nel­le­ment com­me un système d’in­tel­li­gence arti­fi­ci­el­le desti­né à l’i­den­ti­fi­ca­ti­on de per­son­nes phy­si­ques sans leur par­ti­ci­pa­ti­on acti­ve, géné­ra­le­ment à distance, par com­pa­rai­son des don­nées bio­mé­tri­ques d’u­ne per­son­ne avec les don­nées bio­mé­tri­ques con­te­nues dans une base de don­nées de réfé­rence, indé­pen­dam­ment de la tech­no­lo­gie, des pro­ce­s­sus ou des types de don­nées bio­mé­tri­ques uti­li­sés. De tels systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance sont typi­quement uti­li­sés pour per­ce­voir plu­sieurs per­son­nes ou leur com­porte­ment en même temps ou pour faci­li­ter de maniè­re signi­fi­ca­ti­ve l’i­den­ti­fi­ca­ti­on de per­son­nes phy­si­ques sans leur par­ti­ci­pa­ti­on acti­ve. Cela exclut les systè­mes IA desti­nés à être uti­li­sés pour la véri­fi­ca­ti­on bio­mé­tri­que, qui com­prend l’au­then­ti­fi­ca­ti­on, dont le seul but est de con­firm­er qu’u­ne per­son­ne phy­si­que spé­ci­fi­que est la per­son­ne qu’el­le pré­tend être et de con­firm­er l’i­den­ti­té d’u­ne per­son­ne phy­si­que dans le seul but d’a­voir accès à un ser­vice, de déver­rouil­ler un appa­reil ou d’a­voir un accès sécu­ri­sé à des locaux.

Cet­te exclu­si­on est justi­fi­ée par le fait que ces systè­mes sont sus­cep­ti­bles d’a­voir un impact mineur sur les droits fon­da­men­taux des per­son­nes phy­si­ques par rap­port aux systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance qui peu­vent être uti­li­sés pour le trai­te­ment des don­nées bio­mé­tri­ques d’un grand nombre de per­son­nes sans leur par­ti­ci­pa­ti­on acti­ve. Dans le cas des systè­mes “en temps réel”, la cap­tu­re des don­nées bio­mé­tri­ques, la com­pa­rai­son et l’i­den­ti­fi­ca­ti­on se font tou­tes instanta­né­ment, pres­que instanta­né­ment ou en tout état de cau­se sans délai signi­fi­ca­tif. Dans ce con­tex­te, il ne dev­rait pas être pos­si­ble de con­tour­ner les règles du pré­sent règle­ment sur l’uti­li­sa­ti­on “en temps réel” des systè­mes d’IA con­cer­nés en pré­voyant des retards mineurs. Les systè­mes “en temps réel” impli­quent l’uti­li­sa­ti­on de maté­ri­el “en direct” ou “en qua­si-direct”, tel que des séquen­ces vidéo, géné­ré par une camé­ra ou un aut­re appa­reil doté de fonc­tion­na­li­tés simi­lai­res. Dans le cas des systè­mes ‘post’, en revan­che, les don­nées bio­mé­tri­ques ont déjà été cap­tu­rées et la com­pa­rai­son et l’i­den­ti­fi­ca­ti­on n’ont lieu qu’a­près un délai signi­fi­ca­tif. Cela impli­que du maté­ri­el, tel que des images ou des séquen­ces vidéo géné­rées par des camé­ras de télé­vi­si­on en cir­cuit fer­mé ou des appareils pri­vés, qui a été géné­ré avant l’uti­li­sa­ti­on du système à l’é­gard des per­son­nes phy­si­ques concernées.

(42)système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance en temps réelsigni­fie un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance, dans lequel la cap­tu­re des don­nées bio­mé­tri­ques, la com­pa­rai­son et l’i­den­ti­fi­ca­ti­on s’ef­fec­tu­ent sans retard signi­fi­ca­tif, com­prenant non seu­le­ment l’i­den­ti­fi­ca­ti­on instanta­née, mais aus­si des retards courts limi­tés afin d’é­vi­ter les contournements ;

(43)post remo­te bio­me­tric iden­ti­fi­ca­ti­on systemsigni­fie un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance aut­re qu’un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance en temps réel ;

(44)espace acce­s­si­ble au publicsigni­fie tout lieu phy­si­que public ou pri­vé acce­s­si­ble à un nombre indé­ter­mi­né de per­son­nes phy­si­ques, indé­pen­dam­ment du fait que cer­tai­nes con­di­ti­ons d’ac­cès pui­s­sent s’ap­pli­quer, et indé­pen­dam­ment des rest­ric­tions poten­ti­el­les de capacité ;

(19) Aux fins du pré­sent règle­ment, la noti­on d’ ”espace acce­s­si­ble au public” doit être com­pri­se com­me faisant réfé­rence à tout espace phy­si­que acce­s­si­ble à un nombre indé­ter­mi­né de per­son­nes phy­si­ques, que l’e­space en que­sti­on soit pri­vé ou public, quel­le que soit l’ac­ti­vi­té pour laquel­le l’e­space peut être uti­li­sé, par exemp­le pour le com­mer­ce, par exemp­le les bou­ti­ques, les restau­rants, les cafés ; for ser­vices, for exam­p­le, banks, pro­fes­sio­nal acti­vi­ties, hos­pi­ta­li­ty ; for sport, for exam­p­le, swim­ming pools, gyms, sta­di­ums ; for trans­port, for exam­p­le, bus, metro and rail­way sta­ti­ons, air­ports, means of trans­port ; for enter­tain­ment, for exam­p­le, cine­mas, thea­tres, muse­ums, con­cert and con­fe­rence halls ; or for lei­su­re or other­wi­se, for exam­p­le, public roads and squa­res, parks, forests, play­grounds. Un espace dev­rait éga­le­ment être clas­sé com­me étant acce­s­si­ble au public si, indé­pen­dam­ment de sa capa­ci­té poten­ti­el­le ou des rest­ric­tions de sécu­ri­té, l’ac­cès est sou­mis à cer­tai­nes con­di­ti­ons pré­dé­fi­nies qui peu­vent être rem­plies par un nombre indé­ter­mi­né de per­son­nes, tel­les que l’achat d’un ticket ou d’un tit­re de trans­port, l’en­re­gi­stre­ment pré­alable ou le fait d’a­voir un cer­tain âge. En revan­che, un espace ne dev­rait pas être con­sidé­ré com­me acce­s­si­ble au public si l’ac­cès est limi­té à des per­son­nes phy­si­ques spé­ci­fi­ques et défi­nies par une loi de l’U­ni­on ou une loi natio­na­le direc­te­ment liée à la sécu­ri­té publi­que ou à la sûre­té, ou par la mani­fe­sta­ti­on clai­re de la volon­té de la per­son­ne détenant l’au­to­ri­té per­ti­nen­te sur l’e­space. La pos­si­bi­li­té effec­ti­ve d’ac­cès, tel­le qu’u­ne por­te non ver­rouil­lée ou une por­te ouver­te dans une clôtu­re, n’im­pli­que pas que l’e­space est acce­s­si­ble au public en pré­sence d’in­di­ca­ti­ons ou de cir­con­stances sug­gé­rant le con­trai­re, tel­les que des signaux inter­di­sant ou rest­reig­nant l’ac­cès. Les locaux de l’entre­pri­se et de l’u­si­ne, ain­si que les bureaux et les postes de tra­vail dont l’ac­cès est réser­vé aux employés et aux pre­sta­tai­res de ser­vices con­cer­nés, sont des espaces qui ne sont pas acce­s­si­bles au public. Les espaces acce­s­si­bles au public ne doi­vent pas inclu­re les pri­sons ou les postes-fron­tiè­res. Cer­ta­ins aut­res espaces peu­vent com­prend­re à la fois des espaces acce­s­si­bles au public et des espaces non acce­s­si­bles au public, tels que le hall d’un immeub­le rési­den­tiel pri­vé néces­saire pour accé­der au bureau d’un méde­cin ou à un aéro­port. Les espaces en ligne ne sont pas cou­verts, car ce ne sont pas des espaces phy­si­ques. La que­sti­on de savoir si un espace don­né est acce­s­si­ble au public dev­rait tou­te­fois être déter­mi­née au cas par cas, en tenant comp­te des spé­ci­fi­ci­tés de la situa­ti­on indi­vi­du­el­le en question.

(45)law enforce­ment aut­ho­ri­ty’ means :

(a) tou­te auto­ri­té publi­que com­pé­ten­te en matiè­re de pré­ven­ti­on, d’in­ve­sti­ga­ti­on, de détec­tion ou d’exé­cu­ti­on d’in­frac­tions péna­les ou de sanc­tions péna­les, y com­pris la pro­tec­tion cont­re les men­aces à la sécu­ri­té publi­que et la pré­ven­ti­on de ces men­aces ; ou

(b) tout aut­re orga­nis­me ou enti­té char­gé par la légis­la­ti­on d’un État membre d’e­xer­cer une auto­ri­té publi­que et des pou­voirs publics aux fins de la pré­ven­ti­on, de la recher­che, de la détec­tion ou de la pour­suite d’in­frac­tions péna­les ou de l’exé­cu­ti­on de sanc­tions péna­les, y com­pris la pro­tec­tion cont­re les men­aces à la sécu­ri­té publi­que et la pré­ven­ti­on de tel­les menaces ;

(46)appli­ca­ti­on de la loiPar “acti­vi­tés de poli­ce”, on entend les acti­vi­tés menées par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on des lois ou en leur nom en vue de la pré­ven­ti­on, de la recher­che, de la détec­tion ou de l’exé­cu­ti­on d’in­frac­tions péna­les ou de l’ap­pli­ca­ti­on de sanc­tions péna­les, y com­pris la pro­tec­tion cont­re les men­aces à la sécu­ri­té publi­que et la pré­ven­ti­on de ces menaces ;

(47)AI OfficeLa fonc­tion de la Com­mis­si­on con­si­stant à con­tri­buer à la mise en œuvre, au sui­vi et à la super­vi­si­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, ain­si qu’à la gou­ver­nan­ce de l’in­tel­li­gence arti­fi­ci­el­le, tel­le que pré­vue par la décis­i­on de la Com­mis­si­on du 24 jan­vier 2024 ; les réfé­ren­ces fai­tes dans le pré­sent règle­ment à l’Of­fice de l’in­tel­li­gence arti­fi­ci­el­le doi­vent être con­sidé­rées com­me des réfé­ren­ces à la Commission ;

(48)auto­ri­té natio­na­le com­pé­ten­teEn ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le mis en ser­vice ou uti­li­sés par des insti­tu­ti­ons, agen­ces, bureaux et orga­nes de l’U­ni­on, les réfé­ren­ces aux auto­ri­tés natio­na­les com­pé­ten­tes ou aux auto­ri­tés de sur­veil­lan­ce du mar­ché dans le pré­sent règle­ment doi­vent être inter­pré­tées com­me des réfé­ren­ces au Con­trô­leur euro­pé­en de la pro­tec­tion des données ;

(49)inci­dent gra­ve’ dési­gne un inci­dent ou un dys­fonc­tion­ne­ment d’un système d’in­tel­li­gence arti­fi­ci­el­le qui ent­raî­ne direc­te­ment ou indi­rec­te­ment l’un des élé­ments suivants :

(a) la mort d’u­ne per­son­ne, ou des dom­mages gra­ves à la san­té d’u­ne personne ;

(b) une per­tur­ba­ti­on gra­ve et irré­ver­si­ble de la gesti­on ou du fonc­tion­ne­ment d’u­ne infras­truc­tu­re essentielle.

(c) le non-respect des obli­ga­ti­ons pré­vues par le droit de l’U­ni­on visa­nt à pro­té­ger les droits fondamentaux ;

(d) de gra­ves dom­mages à la pro­prié­té ou à l’environnement ;

(50)don­nées per­son­nel­lesLes ter­mes “don­nées à carac­tère per­son­nel” désign­ent les don­nées per­son­nel­les tel­les que défi­nies à l’ar­tic­le 4, point (1), du règle­ment (UE) 2016/679 ;

(51)don­nées non per­son­nel­lesLe ter­me “don­nées” dési­gne les don­nées aut­res que les don­nées à carac­tère per­son­nel tel­les que défi­nies à l’ar­tic­le 4, point (1), du règle­ment (UE) 2016/679 ;

(52)pro­fi­la­geLe ter­me “pro­fi­la­ge” dési­gne le pro­fi­la­ge tel que défi­ni à l’ar­tic­le 4, point (4), du règle­ment (UE) 2016/679 ;

(53)plan de test en situa­ti­on réel­leUn docu­ment décri­vant les objec­tifs, la métho­do­lo­gie, la zone géo­gra­phi­que, la popu­la­ti­on et le champ d’ap­pli­ca­ti­on tem­po­rel, le sui­vi, l’or­ga­ni­sa­ti­on et la réa­li­sa­ti­on des tests dans des con­di­ti­ons réelles ;

(54)plan de bac à sabledési­gne un docu­ment con­ve­nu ent­re le pre­sta­tai­re par­ti­ci­pant et l’au­to­ri­té com­pé­ten­te décri­vant les objec­tifs, les con­di­ti­ons, le cal­en­drier, la métho­do­lo­gie et les exi­gen­ces appli­ca­bles aux acti­vi­tés menées dans le cad­re du sandbox ;

(55)AI regu­la­to­ry sand­boxOn entend par “système d’in­tel­li­gence arti­fi­ci­el­le” un cad­re con­trôlé, mis en place par une auto­ri­té com­pé­ten­te, qui off­re aux four­nis­seurs ou aux four­nis­seurs poten­tiels de systè­mes d’in­tel­li­gence arti­fi­ci­el­le la pos­si­bi­li­té de déve­lo­p­per, de for­mer, de vali­der et de tester, le cas échéant dans des con­di­ti­ons réel­les, un système d’in­tel­li­gence arti­fi­ci­el­le inno­vant, con­for­mé­ment à un plan de test (sand­box), pour une durée limi­tée et sous con­trô­le réglementaire ;

(56)Lit­té­ra­tie AILa noti­on de “com­pé­ten­ces, con­nais­sances et com­pré­hen­si­on” dési­gne les com­pé­ten­ces, les con­nais­sances et la com­pré­hen­si­on qui per­met­tent aux four­nis­seurs, aux déployeurs et aux per­son­nes con­cer­nées, comp­te tenu de leurs droits et obli­ga­ti­ons respec­tifs dans le cad­re du pré­sent règle­ment, de pro­cé­der à un déploie­ment éclai­ré des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, ain­si que de prend­re con­sci­ence des pos­si­bi­li­tés et des ris­ques liés à l’in­tel­li­gence arti­fi­ci­el­le et des dom­mages qu’el­le peut causer ;

(20) Afin d’ob­te­nir les meil­leurs avan­ta­ges des systè­mes IA tout en pro­té­geant les droits fon­da­men­taux, la san­té et la sécu­ri­té et en per­met­tant un con­trô­le démo­cra­tique, l’al­pha­bé­ti­sa­ti­on en matiè­re d’IA dev­rait four­nir aux four­nis­seurs, aux déployeurs et aux per­son­nes con­cer­nées les noti­ons néces­saires pour prend­re des décis­i­ons éclai­rées con­cer­nant les systè­mes IA. Ces noti­ons peu­vent vari­er en fonc­tion du con­tex­te et peu­vent inclu­re la com­pré­hen­si­on de l’uti­li­sa­ti­on cor­rec­te des élé­ments tech­ni­ques pen­dant la pha­se de déve­lo­p­pe­ment du système IA, les mesu­res à appli­quer pen­dant son uti­li­sa­ti­on, les moy­ens appro­priés pour inter­pré­ter les résul­tats du système IA et, dans le cas des per­son­nes con­cer­nées, les con­nais­sances néces­saires pour com­prend­re com­ment les décis­i­ons pri­ses avec l’ai­de de l’IA auront un impact sur elles. Dans le cad­re de l’ap­pli­ca­ti­on du pré­sent règle­ment, l’IA liter­a­cy dev­rait four­nir à tous les acteurs con­cer­nés de la chaî­ne de valeur de l’IA les infor­ma­ti­ons néces­saires pour assurer la con­for­mi­té appro­priée et sa bon­ne application.

En out­re, la mise en œuvre géné­ra­li­sée de mesu­res d’al­pha­bé­ti­sa­ti­on en matiè­re d’IA et l’in­tro­duc­tion d’ac­tions de sui­vi appro­priées pour­rai­ent con­tri­buer à amé­lio­rer les con­di­ti­ons de tra­vail et, en fin de comp­te, à main­te­nir la con­so­li­da­ti­on et la voie d’in­no­va­ti­on de l’IA de con­fi­ance dans l’U­ni­on. Le Con­seil euro­pé­en de l’in­tel­li­gence arti­fi­ci­el­le (le “Con­seil”) dev­rait aider la Com­mis­si­on à pro­mou­voir les outils d’é­du­ca­ti­on à l’in­tel­li­gence arti­fi­ci­el­le, la sen­si­bi­li­sa­ti­on du public et la com­pré­hen­si­on des avan­ta­ges, des ris­ques, des garan­ties, des droits et des obli­ga­ti­ons liés à l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. En coopé­ra­ti­on avec les par­ties pren­an­tes con­cer­nées, la Com­mis­si­on et les États mem­bres dev­rai­ent faci­li­ter l’é­la­bo­ra­ti­on de codes de con­duite volon­tai­res pour pro­mou­voir l’é­du­ca­ti­on à l’IA par­mi les per­son­nes impli­quées dans le déve­lo­p­pe­ment, le fonc­tion­ne­ment et l’uti­li­sa­ti­on de l’IA.

(57)test en con­di­ti­ons réel­lesL’ex­pres­si­on “essai tem­po­rai­re d’un système d’in­tel­li­gence arti­fi­ci­el­le” dési­gne l’es­sai tem­po­rai­re d’un système d’in­tel­li­gence arti­fi­ci­el­le pour sa fina­li­té dans des con­di­ti­ons réel­les, en dehors d’un labo­ra­toire ou d’un aut­re envi­ron­ne­ment simulé, en vue de recu­eil­lir des don­nées fia­bles et robu­stes et d’éva­luer et de véri­fier la con­for­mi­té du système d’in­tel­li­gence arti­fi­ci­el­le avec les exi­gen­ces du pré­sent règle­ment, et elle n’é­quiv­aut pas à la mise sur le mar­ché ou à la mise en ser­vice du système d’in­tel­li­gence arti­fi­ci­el­le au sens du pré­sent règle­ment, pour autant que tou­tes les con­di­ti­ons énon­cées aux artic­les 57 ou 60 soi­ent remplies ;

(58)sujetPour les beso­ins des tests en situa­ti­on réel­le, on entend par “per­son­ne phy­si­que” une per­son­ne phy­si­que qui par­ti­ci­pe à des tests en situa­ti­on réelle ;

(59)con­sen­te­ment éclai­réLe ter­me “test” dési­gne l’ex­pres­si­on lib­re, spé­ci­fi­que, sans ambi­guï­té et volon­tai­re par un sujet de sa volon­té de par­ti­ci­per à un test par­ti­cu­lier dans des con­di­ti­ons de la vie réel­le, après avoir été infor­mé de tous les aspects du test qui sont per­tin­ents pour la décis­i­on du sujet de participer ;

(60)deep fakeLe ter­me “con­te­nu” dési­gne des images, des sons ou des vidé­os géné­rés par des IA ou mani­pulés qui res­sem­blent à des per­son­nes, des objets, des lieux, des enti­tés ou des évé­ne­ments exi­stants et qui paraî­trai­ent fausse­ment authen­ti­ques ou véri­di­ques à une personne ;

(61)vio­la­ti­on géné­ra­li­séesigni­fie tout acte ou omis­si­on con­trai­re à la légis­la­ti­on de l’U­ni­on pro­té­geant l’in­té­rêt des per­son­nes, qui :

(a) a por­té att­ein­te ou est sus­cep­ti­ble de por­ter att­ein­te aux inté­rêts coll­ec­tifs d’in­di­vi­dus rési­dant dans au moins deux États mem­bres aut­res que l’É­tat membre dans lequel il se trouve :

(i) l’ac­te ou l’o­mis­si­on a pris nais­sance ou a eu lieu ;

(ii) le four­nis­seur con­cer­né, ou, le cas échéant, son repré­sen­tant auto­ri­sé, est loca­li­sé ou éta­b­li ; ou

(iii) le déployeur est éta­b­li, lorsque l’in­frac­tion est com­mi­se par le déployeur ;

(b) a causé, cau­se ou est sus­cep­ti­ble de cau­ser un pré­ju­di­ce aux inté­rêts coll­ec­tifs d’in­di­vi­dus et pré­sen­te des carac­té­ri­sti­ques com­mu­nes, y com­pris la même pra­tique illi­ci­te ou le même inté­rêt à être lésé, et se pro­duit de maniè­re con­co­mi­tan­te, com­mi­se par le même opé­ra­teur, dans au moins trois États membres ;

(62)infras­truc­tu­re cri­tiqueL’ex­pres­si­on “infras­truc­tu­re cri­tique” dési­gne l’in­fras­truc­tu­re cri­tique tel­le que défi­nie à l’ar­tic­le 2, point (4), de la direc­ti­ve (UE) 2022/2557 ;

(63)modè­le AI à usa­ge géné­ralsigni­fie un modè­le d’IA, y com­pris lorsqu’un tel modè­le d’IA est for­mé avec une gran­de quan­ti­té de don­nées par auto-super­vi­si­on à l’é­chel­le, qui pré­sen­te une géné­ra­li­té signi­fi­ca­ti­ve et est capa­ble d’exé­cu­ter de maniè­re com­pé­ti­ti­ve un lar­ge éven­tail de tâches distinc­tes, indé­pen­dam­ment de la maniè­re dont le modè­le est pla­cé sur le mar­ché, et qui peut être inté­g­ré dans une varié­té de systè­mes ou d’ap­pli­ca­ti­ons en aval, à l’ex­cep­ti­on des modè­les d’IA qui sont uti­li­sés pour la recher­che, le déve­lo­p­pe­ment ou les acti­vi­tés de pro­to­typa­ge avant d’êt­re pla­cés sur le marché ;

(97) La noti­on de modè­les d’IA à usa­ge géné­ral dev­rait être clai­re­ment défi­nie et distin­guée de la noti­on de systè­mes d’IA afin de per­mett­re une cer­ti­tu­de juri­di­que. La défi­ni­ti­on dev­rait être basée sur les carac­té­ri­sti­ques fonc­tion­nel­les clés d’un modè­le d’IA à usa­ge géné­ral, en par­ti­cu­lier la géné­ra­li­té et la capa­ci­té à exé­cu­ter de maniè­re com­pé­ti­ti­ve une lar­ge gam­me de tâches distinc­tes. Ces modè­les sont géné­ra­le­ment for­més sur de gran­des quan­ti­tés de don­nées, par le biais de dif­fé­ren­tes métho­des, tel­les que l’app­ren­tis­sa­ge auto-super­vi­sé, non super­vi­sé ou par ren­force­ment. Les modè­les d’IA à usa­ge géné­ral peu­vent être mis sur le mar­ché de dif­fé­ren­tes maniè­res, par le biais de biblio­t­hè­ques, d’in­ter­faces de pro­gram­ma­ti­on d’ap­pli­ca­ti­ons (API), par télé­char­ge­ment direct ou sous for­me de copie phy­si­que. Ces modè­les peu­vent être modi­fi­és ou affi­nés en de nou­veaux modè­les. Bien que les modè­les AI soi­ent des com­po­sants essen­tiels des systè­mes AI, ils ne con­sti­tu­ent pas à eux seuls des systè­mes AI. Les modè­les AI néces­si­tent l’a­jout d’aut­res com­po­sants, com­me par exemp­le une inter­face uti­li­sa­teur, pour deve­nir des systè­mes AI. Les modè­les AI sont géné­ra­le­ment inté­g­rés dans les systè­mes AI et en font par­tie. Le pré­sent règle­ment pré­voit des règles spé­ci­fi­ques pour les modè­les d’IA à usa­ge géné­ral et pour les modè­les d’IA à usa­ge géné­ral qui pré­sen­tent des ris­ques sys­té­mi­ques, qui dev­rai­ent éga­le­ment s’ap­pli­quer lorsque ces modè­les sont inté­g­rés ou font par­tie d’un système d’IA. Il con­vi­ent de com­prend­re que les obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral doi­vent s’ap­pli­quer dès que les modè­les d’IA à usa­ge géné­ral sont mis sur le marché.

Lorsque le four­nis­seur d’un modè­le d’IA à usa­ge géné­ral intèg­re un modè­le per­son­nel dans son pro­pre système d’IA qui est mis à dis­po­si­ti­on sur le mar­ché ou mis en ser­vice, ce modè­le doit être con­sidé­ré com­me étant pla­cé sur le mar­ché et, par con­sé­quent, les obli­ga­ti­ons pré­vues par le pré­sent règle­ment pour les modè­les doi­vent con­tin­uer à s’ap­pli­quer en plus de cel­les appli­ca­bles aux systè­mes d’IA. En tout état de cau­se, les obli­ga­ti­ons pré­vues pour les modè­les ne dev­rai­ent pas s’ap­pli­quer lorsqu’un modè­le pro­pre est uti­li­sé pour des pro­ce­s­sus pure­ment inter­nes qui ne sont pas essen­tiels à la four­ni­tu­re d’un pro­duit ou d’un ser­vice à des tiers et que les droits des per­son­nes phy­si­ques ne sont pas affec­tés. Comp­te tenu de leurs effets néga­tifs poten­tiels importants, les modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que dev­rai­ent tou­jours être sou­mis aux obli­ga­ti­ons per­ti­nen­tes pré­vues par le pré­sent règle­ment. La défi­ni­ti­on ne dev­rait pas cou­vr­ir les modè­les d’IA uti­li­sés avant leur mise sur le mar­ché dans le seul but d’ac­ti­vi­tés de recher­che, de déve­lo­p­pe­ment et de pro­to­typa­ge. Cela ne pré­ju­ge pas de l’ob­li­ga­ti­on de se con­for­mer au pré­sent règle­ment lorsque, à la suite de tel­les acti­vi­tés, un modè­le est mis sur le marché.

(99) Les grands modè­les d’IA géné­ra­tifs sont un exemp­le typi­que de modè­le d’IA à usa­ge géné­ral, étant don­né qu’ils per­met­tent une géné­ra­ti­on fle­xi­ble de con­te­nu, par exemp­le sous la for­me de tex­te, d’au­dio, d’i­mages ou de vidéo, qui peut faci­le­ment s’ad­ap­ter à un lar­ge éven­tail de tâches distinctes.

(64)des capa­ci­tés à fort impactLes capa­ci­tés de l’IA sont des capa­ci­tés qui cor­re­spon­dent ou dépas­sent les capa­ci­tés enre­gi­strées dans les modè­les d’IA géné­ra­li­stes les plus avancés ;

(98) Alors que la géné­ra­li­té d’un modè­le pour­rait, ent­re aut­res, éga­le­ment être déter­mi­née par un cer­tain nombre de paramè­tres, les modè­les com­portant au moins un bil­li­on de paramè­tres et ent­raî­nés avec une gran­de quan­ti­té de don­nées grâ­ce à l’au­to-super­vi­si­on à l’é­chel­le dev­rai­ent être con­sidé­rés com­me pré­sen­tant une géné­ra­li­té signi­fi­ca­ti­ve et per­met­tant de réa­li­ser de maniè­re com­pé­ti­ti­ve une lar­ge gam­me de tâches distinctes.

(65)ris­que sys­té­mi­queOn entend par “ris­que” un ris­que spé­ci­fi­que aux capa­ci­tés à fort impact des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, ayant un impact signi­fi­ca­tif sur le mar­ché de l’U­ni­on en rai­son de leur por­tée ou en rai­son d’ef­fets néga­tifs réels ou rai­sonnablem­ent pré­vi­si­bles sur la san­té publi­que, la sécu­ri­té, la sécu­ri­té publi­que, les droits fon­da­men­taux ou la socié­té dans son ensem­ble, qui peut être pro­pa­gé à l’é­chel­le de la chaî­ne de valeur ;

(66)système AI à usa­ge géné­ralOn entend par “système d’in­tel­li­gence arti­fi­ci­el­le” un système d’in­tel­li­gence arti­fi­ci­el­le basé sur un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral et capa­ble de ser­vir à une varié­té de fins, aus­si bien pour une uti­li­sa­ti­on direc­te que pour une inté­gra­ti­on dans d’aut­res systè­mes d’in­tel­li­gence artificielle ;

(100) Lorsqu’un modè­le d’IA à usa­ge géné­ral est inté­g­ré dans un système d’IA ou en con­sti­tue une par­tie, ce système doit être con­sidé­ré com­me un système d’IA à usa­ge géné­ral si, grâ­ce à cet­te inté­gra­ti­on, ce système a la capa­ci­té de ser­vir à une mul­ti­tu­de de fins. Un système AI à usa­ge géné­ral peut être uti­li­sé direc­te­ment ou être inté­g­ré dans d’aut­res systè­mes AI.

(67)opé­ra­ti­on à point flot­tant’ dési­gne tou­te opé­ra­ti­on ou affec­ta­ti­on mathé­ma­tique impli­quant des nom­bres à vir­gu­le flot­tan­te, qui sont un sous-ensem­ble des nom­bres réels typi­quement repré­sen­tés sur les ordi­na­teurs par un entier de pré­cis­i­on fixe sca­lé par un entier expo­sant d’u­ne base fixe ;

(68)four­nis­seur en aval’ signi­fie un four­nis­seur d’un système IA, y com­pris un système IA à usa­ge géné­ral, qui intèg­re un modè­le IA, indé­pen­dam­ment du fait que le modè­le IA soit four­ni par lui-même et inté­g­ré ver­ti­cal­e­ment ou four­ni par une aut­re enti­té sur la base de rela­ti­ons contractuelles.

Artic­le 4 AI literacy

Les four­nis­seurs et les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent prend­re des mesu­res pour assurer, dans tou­te la mesu­re du pos­si­ble, un niveau suf­fi­sant d’al­pha­bé­ti­sa­ti­on en intel­li­gence arti­fi­ci­el­le de leur per­son­nel et des aut­res per­son­nes char­gées de l’ex­plo­ita­ti­on et de l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le en leur nom, en tenant comp­te de leurs con­nais­sances tech­ni­ques, de leur expé­ri­ence, de leur édu­ca­ti­on et de leur for­ma­ti­on ain­si que du con­tex­te dans lequel les systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent être uti­li­sés, et en prenant en con­sidé­ra­ti­on les per­son­nes ou les grou­pes de per­son­nes sur les­quels les systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent être utilisés.

Cha­pit­re II Pra­ti­ques d’IA interdites

Artic­le 5 Pra­ti­ques d’IA interdites

(26) Afin d’in­tro­dui­re un ensem­ble pro­por­ti­onné et effi­cace de règles con­traignan­tes pour les systè­mes d’IA, il con­vi­ent de sui­v­re une appro­che clai­re­ment défi­nie et basée sur les ris­ques. Cet­te appro­che dev­rait adap­ter le type et le con­te­nu de ces règles à l’in­ten­si­té et à l’é­ten­due des ris­ques que les systè­mes d’IA peu­vent géné­rer. Il est donc néces­saire d’in­terd­ire cer­tai­nes pra­ti­ques inac­cep­ta­bles en matiè­re d’IA, de défi­nir des exi­gen­ces pour les systè­mes d’IA à haut ris­que et des obli­ga­ti­ons pour les explo­itants con­cer­nés, et de défi­nir des obli­ga­ti­ons de trans­pa­rence pour cer­ta­ins systè­mes d’IA.

(29) Les tech­ni­ques de mani­pu­la­ti­on basées sur l’IA peu­vent être uti­li­sées pour per­sua­der des per­son­nes de s’en­ga­ger dans des com­porte­ments non sou­hai­tés, ou pour les trom­per en les pous­sant à prend­re des décis­i­ons d’u­ne maniè­re qui sub­ver­tit et affec­te leur auto­no­mie, leur pri­se de décis­i­on et leur liber­té de choix. La mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on de cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le but ou avec l’ef­fet de per­tur­ber maté­ri­el­le­ment le com­porte­ment humain, en causant des dom­mages importants, en par­ti­cu­lier des effets néga­tifs suf­fi­sam­ment importants sur la san­té phy­si­que ou psy­cho­lo­gi­que ou sur les inté­rêts finan­ciers, sont par­ti­cu­liè­re­ment dan­ge­reux et dev­rai­ent donc être inter­dits. De tels systè­mes IA déploi­ent des com­po­sants sub­li­minaux tels que des sti­mu­li audio, image, vidéo que les per­son­nes ne peu­vent pas per­ce­voir, car ces sti­mu­li sont au-delà de la per­cep­ti­on humaine, ou d’aut­res tech­ni­ques mani­pu­la­tri­ces ou décep­ti­ves qui sub­ver­tis­sent ou affec­tent l’au­to­no­mie, la pri­se de décis­i­on ou le lib­re choix de la per­son­ne de tel­le maniè­re que les per­son­nes ne sont pas con­sciem­ment con­sci­en­tes de ces tech­ni­ques ou, si elles en sont con­sci­en­tes, peu­vent enco­re être déçues ou ne sont pas en mesu­re de les con­trô­ler ou d’y rési­ster. Cela pour­rait être faci­li­té, par exemp­le, par des inter­faces machi­ne-cer­ve­au ou la réa­li­té vir­tu­el­le, dans la mesu­re où elles per­met­tent un degré de con­trô­le plus éle­vé sur les sti­mu­li pré­sen­tés aux per­son­nes, dans la mesu­re où ils peu­vent maté­ri­el­le­ment per­tur­ber leur com­porte­ment de maniè­re signi­fi­ca­ti­ve­ment pré­ju­di­cia­ble. En out­re, les systè­mes d’IA peu­vent éga­le­ment exploi­ter d’u­ne aut­re maniè­re les vul­né­ra­bi­li­tés d’u­ne per­son­ne ou d’un grou­pe spé­ci­fi­que de per­son­nes en rai­son de leur âge, d’un han­di­cap au sens de la direc­ti­ve (UE) 2019/882 du Par­le­ment euro­pé­en et du Con­seil , ou d’u­ne situa­ti­on socia­le ou éco­no­mi­que spé­ci­fi­que sus­cep­ti­ble de rend­re ces per­son­nes plus vul­né­ra­bles à l’ex­plo­ita­ti­on, tel­les que les per­son­nes vivant dans une pau­vre­té extrê­me ou les mino­ri­tés eth­ni­ques ou religieuses.

De tels systè­mes IA peu­vent être mis sur le mar­ché, mis en ser­vice ou uti­li­sés dans le but ou avec l’ef­fet de dis­trai­re maté­ri­el­le­ment le com­porte­ment d’u­ne per­son­ne et d’u­ne maniè­re qui cau­se ou est rai­sonnablem­ent sus­cep­ti­ble de cau­ser un pré­ju­di­ce important à cet­te per­son­ne ou à une aut­re ou à des grou­pes de per­son­nes, y com­pris des pré­ju­di­ces qui peu­vent s’ac­cu­mu­ler au fil du temps et dev­rai­ent donc être inter­dits. Il n’est peut-être pas pos­si­ble de sup­po­ser qu’il y a une inten­ti­on de dis­tord­re un com­porte­ment lorsque la dis­tor­si­on résul­te de fac­teurs exter­nes au système d’in­tel­li­gence arti­fi­ci­el­le qui sont hors du con­trô­le du four­nis­seur ou du déployeur, à savoir des fac­teurs qui ne sont peut-être pas pré­vi­si­bles et qu’il n’est donc pas pos­si­ble pour le four­nis­seur ou le déployeur du système d’in­tel­li­gence arti­fi­ci­el­le d’at­té­nuer. En tout état de cau­se, il n’est pas néces­saire pour le four­nis­seur ou le déployeur d’a­voir l’in­ten­ti­on de cau­ser un pré­ju­di­ce important, à con­di­ti­on que ce pré­ju­di­ce résul­te des pra­ti­ques de mani­pu­la­ti­on ou d’ex­plo­ita­ti­on de l’IA. Les inter­dic­tions de tel­les pra­ti­ques d’IA sont com­plé­men­tai­res aux dis­po­si­ti­ons con­te­nues dans la direc­ti­ve 2005/29/CE du Par­le­ment euro­pé­en et du Con­seil , en par­ti­cu­lier les pra­ti­ques com­mer­cia­les déloya­les ent­raînant des pré­ju­di­ces éco­no­mi­ques ou finan­ciers pour les con­som­ma­teurs sont inter­di­tes en tou­tes cir­con­stances, qu’el­les soi­ent mises en place par le biais de systè­mes d’IA ou d’u­ne aut­re maniè­re. Les inter­dic­tions de pra­ti­ques de mani­pu­la­ti­on et d’ex­plo­ita­ti­on pré­vues par le pré­sent règle­ment ne dev­rai­ent pas affec­ter les pra­ti­ques léga­les dans le cad­re de trai­te­ments médi­caux tels que le trai­te­ment psy­cho­lo­gi­que d’u­ne mala­die men­ta­le ou la réé­du­ca­ti­on phy­si­que, lorsque ces pra­ti­ques sont effec­tuées con­for­mé­ment à la loi et aux nor­mes médi­cal­es appli­ca­bles, par exemp­le avec le con­sen­te­ment expli­ci­te des per­son­nes ou de leurs repré­sen­tants légaux. En out­re, les pra­ti­ques com­mer­cia­les com­mu­nes et légiti­mes, par exemp­le dans le domaine de la publi­ci­té, qui sont con­for­mes à la légis­la­ti­on appli­ca­ble, ne dev­rai­ent pas être con­sidé­rées en elles-mêmes com­me con­sti­tu­ti­ves de pra­ti­ques mani­pu­la­tri­ces IA nuisibles.

1. Les pra­ti­ques d’IA sui­van­tes doi­vent être interdites :

(a) la mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on d’un système IA qui recourt à des tech­ni­ques sub­li­mi­na­les au-delà de la con­sci­ence d’u­ne per­son­ne ou à des tech­ni­ques déli­bé­ré­ment mani­pu­la­tri­ces ou décep­ti­ves, dans le but ou avec pour effet de défor­mer maté­ri­el­le­ment le com­porte­ment d’u­ne per­son­ne ou d’un grou­pe de per­son­nes en com­pro­met­tant gra­ve­ment leur capa­ci­té à prend­re une décis­i­on en con­nais­sance de cau­se, les amenant ain­si à prend­re une décis­i­on qu’ils n’au­rai­ent pas pri­se autre­ment, d’u­ne maniè­re qui cau­se ou est rai­sonnablem­ent sus­cep­ti­ble de cau­ser un pré­ju­di­ce important à cet­te per­son­ne, à une aut­re per­son­ne ou à un grou­pe de personnes ;

(28) Out­re les nombreu­ses uti­li­sa­ti­ons béné­fi­ques de l’IA, cel­le-ci peut éga­le­ment être détour­née et four­nir des outils nou­veaux et puis­sants pour des pra­ti­ques de mani­pu­la­ti­on, d’ex­plo­ita­ti­on et de con­trô­le social. De tel­les pra­ti­ques sont par­ti­cu­liè­re­ment dan­ge­reu­ses et abu­si­ves et dev­rai­ent être inter­di­tes car elles cont­re­di­sent les valeurs de l’U­ni­on en matiè­re de respect de la dignité humaine, de liber­té, d’é­ga­li­té, de démo­cra­tie et de règ­le de droit, ain­si que les droits fon­da­men­taux inscrits dans la Char­te, y com­pris le droit à la non-dis­cri­mi­na­ti­on, à la pro­tec­tion des don­nées et à la vie pri­vée et les droits de l’enfant.

(b) la mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le qui exploi­te l’u­ne quel­con­que des vul­né­ra­bi­li­tés d’u­ne per­son­ne phy­si­que ou d’un grou­pe spé­ci­fi­que de per­son­nes en rai­son de leur âge, de leur han­di­cap ou d’u­ne situa­ti­on socia­le ou éco­no­mi­que par­ti­cu­liè­re, dans le but ou avec l’ef­fet de per­tur­ber maté­ri­el­le­ment le com­porte­ment de cet­te per­son­ne ou d’u­ne per­son­ne appar­tenant à ce grou­pe d’u­ne maniè­re qui cau­se ou est rai­sonnablem­ent sus­cep­ti­ble de cau­ser un pré­ju­di­ce important à cet­te per­son­ne ou à une aut­re personne ;

(c) la mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’éva­lua­ti­on ou la clas­si­fi­ca­ti­on de per­son­nes phy­si­ques ou de grou­pes de per­son­nes sur une péri­ode don­née, sur la base de leur com­porte­ment social ou de carac­té­ri­sti­ques per­son­nel­les ou de per­son­na­li­té con­nues, dédui­tes ou pré­di­tes, le score social abou­tis­sant à l’un ou l’aut­re ou aux deux suivants :

(i) trai­te­ment pré­ju­di­cia­ble ou inju­ste de cer­tai­nes per­son­nes phy­si­ques ou de cer­ta­ins grou­pes de per­son­nes dans des con­tex­tes soci­aux sans rap­port avec les con­tex­tes dans les­quels les don­nées ont été initia­le­ment géné­rées ou collectées ;

(ii) trai­te­ment pré­ju­di­cia­ble ou inju­ste de cer­tai­nes per­son­nes phy­si­ques ou de cer­ta­ins grou­pes de per­son­nes, qui est inju­sti­fié ou dis­pro­por­ti­onné par rap­port à leur com­porte­ment social ou à sa gravité ;

(31) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le per­met­tant le scoring social de per­son­nes phy­si­ques par des acteurs publics ou pri­vés peu­vent con­dui­re à des résul­tats dis­cri­mi­na­toires et à l’ex­clu­si­on de cer­ta­ins grou­pes. Ils peu­vent vio­ler le droit à la dignité et à la non-dis­cri­mi­na­ti­on ain­si que les valeurs d’é­ga­li­té et de justi­ce. De tels systè­mes d’in­tel­li­gence arti­fi­ci­el­le éva­lu­ent ou clas­sent des per­son­nes phy­si­ques ou des grou­pes de per­son­nes sur la base de mul­ti­ples points de don­nées rela­tifs à leur com­porte­ment social dans de mul­ti­ples con­tex­tes ou de carac­té­ri­sti­ques per­son­nel­les ou de per­son­na­li­té con­nues, dédui­tes ou pré­di­tes sur cer­tai­nes péri­odes de temps. Le score social obte­nu par ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le peut con­dui­re à un trai­te­ment pré­ju­di­cia­ble ou inju­ste de per­son­nes phy­si­ques ou de grou­pes entiers de ces per­son­nes dans des con­tex­tes soci­aux sans rap­port avec le con­tex­te dans lequel les don­nées ont été initia­le­ment géné­rées ou coll­ec­tées, ou à un trai­te­ment pré­ju­di­cia­ble dis­pro­por­ti­onné ou inju­sti­fié par rap­port à la gra­vi­té de leur com­porte­ment social. Les systè­mes d’IA qui met­tent en œuvre de tel­les pra­ti­ques de scoring inac­cep­ta­bles et qui abou­tis­sent à des résul­tats aus­si pré­ju­di­cia­bles ou iné­qui­ta­bles dev­rai­ent donc être inter­dits. Cet­te inter­dic­tion ne dev­rait pas affec­ter les pra­ti­ques d’éva­lua­ti­on léga­les des per­son­nes phy­si­ques qui sont menées à des fins spé­ci­fi­ques con­for­mé­ment au droit de l’U­ni­on et au droit national.

(d) the pla­cing on the mar­ket, the put­ting into ser­vice for this spe­ci­fic pur­po­se, or the use of an AI system for making risk assess­ments of natu­ral per­sons in or to assess or pre­dict the risk of a natu­ral per­son com­mit­ting a cri­mi­nal offence, based only on the pro­fil­ing of a natu­ral per­son or on asses­sing its per­so­na­li­ty traits and cha­rac­te­ri­stics ; this pro­hi­bi­ti­on shall not app­ly to AI systems used to sup­port the human assess­ment of the invol­vement of a per­son in a cri­mi­nal acti­vi­ty, which is alre­a­dy based on objec­ti­ve and veri­fia­ble facts direct­ly lin­ked to a cri­mi­nal activity ;

(42) Con­for­mé­ment à la pré­somp­ti­on d’in­no­cence, les per­son­nes phy­si­ques dans l’U­ni­on dev­rai­ent tou­jours être jugées sur leur com­porte­ment réel. Les per­son­nes phy­si­ques ne dev­rai­ent jamais être jugées sur la base d’un com­porte­ment pré­dit par l’IA, fon­dé uni­quement sur leur pro­fil, leurs traits de per­son­na­li­té ou leurs carac­té­ri­sti­ques, tel­les que leur natio­na­li­té, leur lieu de nais­sance, leur lieu de rési­dence, le nombre de leurs det­tes, leur niveau d’en­det­te­ment ou leur type de véhi­cu­le, sans qu’il exi­ste un soup­çon rai­sonnable que cet­te per­son­ne soit impli­quée dans une acti­vi­té cri­mi­nel­le, fon­dé sur des faits objec­tifs véri­fi­a­bles et sans éva­lua­ti­on humaine de cet­te acti­vi­té. Par con­sé­quent, les éva­lua­tions des ris­ques effec­tuées à l’é­gard de per­son­nes phy­si­ques en vue d’éva­luer la pro­ba­bi­li­té de leur délit ou de préd­ire l’oc­cur­rence d’u­ne infrac­tion péna­le réel­le ou poten­ti­el­le sur la seu­le base de leur pro­fi­la­ge ou de l’éva­lua­ti­on de leurs traits de per­son­na­li­té et de leurs carac­té­ri­sti­ques dev­rai­ent être inter­di­tes. En tout état de cau­se, cet­te inter­dic­tion ne doit pas se réfé­rer ou tou­ch­er aux ana­ly­ses de ris­que qui ne sont pas fon­dées sur le pro­fi­la­ge des indi­vi­dus ou sur leurs traits de per­son­na­li­té et leurs carac­té­ri­sti­ques, tel­les que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le uti­li­sant des ana­ly­ses de ris­que pour éva­luer la pro­ba­bi­li­té de frau­de finan­ciè­re des ent­re­pri­ses sur la base de tran­sac­tions suspec­tes ou les outils d’ana­ly­se de ris­que pour préd­ire la loca­li­sa­ti­on de stu­pé­fi­ants ou de mar­chan­di­ses illi­ci­tes par les auto­ri­tés doua­niè­res, par exemp­le sur la base des itin­é­rai­res de tra­fic connus.

(e) la mise sur le mar­ché, la mise en ser­vice à cet­te fin spé­ci­fi­que, ou l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui cré­ent ou éten­dent des bases de don­nées de recon­nais­sance facia­le par le scra­ping non ciblé d’i­mages facia­les pro­venant d’In­ter­net ou de séquen­ces CCTV ;

(43) La mise sur le mar­ché, la mise en ser­vice à cet­te fin spé­ci­fi­que ou l’uti­li­sa­ti­on de systè­mes IA qui cré­ent ou éten­dent des bases de don­nées de recon­nais­sance facia­le par le scra­ping non ciblé d’i­mages facia­les pro­venant d’In­ter­net ou d’i­mages de télé­vi­si­on en cir­cuit fer­mé dev­rai­ent être inter­di­tes, car cet­te pra­tique ajou­te au sen­ti­ment de sur­veil­lan­ce de mas­se et peut con­dui­re à de gra­ves vio­la­ti­ons des droits fon­da­men­taux, y com­pris le droit à la vie privée.

(f) la mise sur le mar­ché, la mise en ser­vice à cet­te fin spé­ci­fi­que, ou l’uti­li­sa­ti­on de systè­mes IA pour infé­rer les émo­ti­ons d’u­ne per­son­ne phy­si­que dans les domain­es du tra­vail et des éta­blis­se­ments d’ens­eig­ne­ment, sauf lorsque l’uti­li­sa­ti­on du système IA est desti­née à être mise en place ou mise sur le mar­ché pour des rai­sons médi­cal­es ou de sécurité ;

(44) Il exi­ste de sérieu­ses pré­oc­cu­pa­ti­ons quant à la base sci­en­ti­fi­que des systè­mes d’in­tel­li­gence arti­fi­ci­el­le visa­nt à iden­ti­fier ou à neu­tra­li­ser les émo­ti­ons, d’autant plus que l’ex­pres­si­on des émo­ti­ons varie con­sidé­ra­blem­ent d’u­ne cul­tu­re et d’u­ne situa­ti­on à l’aut­re, et même au sein d’un même indi­vi­du. Par­mi les prin­ci­paux incon­vé­ni­ents de ces systè­mes figu­rent leur fia­bi­li­té limi­tée, leur man­que de spé­ci­fi­ci­té et leur géné­ra­li­té rest­rein­te. Par con­sé­quent, les systè­mes d’IA iden­ti­fi­ant ou blo­quant les émo­ti­ons ou les inten­ti­ons des per­son­nes phy­si­ques sur la base de leurs don­nées bio­mé­tri­ques peu­vent con­dui­re à des résul­tats dis­cri­mi­na­toires et peu­vent être intru­sifs pour les droits et les liber­tés des per­son­nes con­cer­nées. Comp­te tenu du désé­qui­lib­re des pou­voirs dans le con­tex­te du tra­vail ou de l’é­du­ca­ti­on, com­bi­né à la natu­re intru­si­ve de ces systè­mes, ces der­niers pour­rai­ent con­dui­re à un trai­te­ment pré­ju­di­cia­ble ou iné­qui­ta­ble de cer­tai­nes per­son­nes phy­si­ques ou de grou­pes entiers de cel­les-ci. Par con­sé­quent, la mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés pour détec­ter l’é­tat émo­ti­on­nel des indi­vi­dus dans des situa­tions liées au tra­vail et à l’é­du­ca­ti­on dev­rai­ent être inter­di­tes. Cet­te inter­dic­tion ne dev­rait pas cou­vr­ir les systè­mes d’in­tel­li­gence arti­fi­ci­el­le mis sur le mar­ché uni­quement pour des rai­sons médi­cal­es ou de sécu­ri­té, tels que les systè­mes desti­nés à un usa­ge thérapeutique.

(g) la mise sur le mar­ché, la mise en ser­vice à cet­te fin spé­ci­fi­que ou l’uti­li­sa­ti­on de systè­mes de caté­go­ri­sa­ti­on bio­mé­tri­que qui caté­go­ri­sent indi­vi­du­el­le­ment des per­son­nes phy­si­ques sur la base de leurs don­nées bio­mé­tri­ques afin de dédui­re ou d’in­fé­rer leur race, leurs opi­ni­ons poli­ti­ques, leur appar­ten­an­ce à un syn­di­cat, leurs con­vic­tions reli­gieu­ses ou phi­lo­so­phi­ques, leur vie sexu­el­le ou leur ori­en­ta­ti­on sexu­el­le ; cet­te inter­dic­tion ne cou­vre pas tout éti­que­ta­ge ou fil­tra­ge d’en­sem­bles de don­nées bio­mé­tri­ques obte­nus de maniè­re illi­ci­te, tels que des images, sur la base de don­nées bio­mé­tri­ques ou la caté­go­ri­sa­ti­on de don­nées bio­mé­tri­ques dans le domaine de l’ap­pli­ca­ti­on de la loi ;

(30) Les systè­mes de caté­go­ri­sa­ti­on bio­mé­tri­que fon­dés sur les don­nées bio­mé­tri­ques des per­son­nes phy­si­ques, tel­les que le visa­ge ou les emprein­tes digi­ta­les d’un indi­vi­du, et desti­nés à dédui­re ou à infé­rer les opi­ni­ons poli­ti­ques, l’ap­par­ten­an­ce à un syn­di­cat, les con­vic­tions reli­gieu­ses ou phi­lo­so­phi­ques, la race, la vie sexu­el­le ou l’o­ri­en­ta­ti­on sexu­el­le d’un indi­vi­du dev­rai­ent être inter­dits. Cet­te inter­dic­tion ne dev­rait pas cou­vr­ir l’é­ti­que­ta­ge, le fil­tra­ge ou la caté­go­ri­sa­ti­on légaux des ensem­bles de don­nées bio­mé­tri­ques acquis con­for­mé­ment à la légis­la­ti­on de l’U­ni­on ou natio­na­le en fonc­tion des don­nées bio­mé­tri­ques, com­me le tri des images en fonc­tion de la cou­leur des che­veux ou des yeux, qui peut par exemp­le être uti­li­sé dans le domaine de l’ap­pli­ca­ti­on de la loi.

(40) Con­for­mé­ment à l’ar­tic­le 6 bis du Pro­to­co­le no 21 sur la posi­ti­on du Royau­me-Uni et de l’Ir­lan­de à l’é­gard du domaine de la liber­té, de la sécu­ri­té et de la justi­ce, annexé au TEU et au TFEU, l’Ir­lan­de n’est pas liée par les règles énon­cées à l’ar­tic­le 5, para­gra­phe 1, pre­mier ali­néa, point (g), dans la mesu­re où elle s’ap­pli­que à l’uti­li­sa­ti­on de systè­mes de caté­go­ri­sa­ti­on bio­mé­tri­que pour les acti­vi­tés de coopé­ra­ti­on poli­ciè­re et de coopé­ra­ti­on judi­ciai­re en matiè­re péna­le, Artic­le 5(1), pre­mier ali­néa, point (d), dans la mesu­re où elle s’ap­pli­que à l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique cou­verts par cet­te dis­po­si­ti­on, l’ar­tic­le 5, para­gra­phe 1, pre­mier ali­néa, point (h), les artic­les 5, para­gra­phes 2 à 6, et l’ar­tic­le 26, para­gra­phe 10, du pré­sent règle­ment, adop­té sur la base de l’ar­tic­le 16 du TFEU, qui con­cer­nent le trai­te­ment de don­nées à carac­tère per­son­nel par les États mem­bres lors de l’e­xer­ci­ce d’ac­ti­vi­tés rele­vant du cha­pit­re 4 ou du cha­pit­re 5 du tit­re V de la troi­siè­me par­tie du TFEU, lorsque l’Ir­lan­de n’est pas liée par les règles régis­sant les for­mes de coopé­ra­ti­on judi­ciai­re en matiè­re péna­le ou de coopé­ra­ti­on poli­ciè­re qui exi­gent le respect des dis­po­si­ti­ons éta­b­lies sur la base de l’ar­tic­le 16 du TFEU.

(41) Con­for­mé­ment aux artic­les 2 et 2a du Pro­to­co­le n° 22 sur la posi­ti­on du Dane­mark, annexé au TEU et au TFEU, le Dane­mark n’est pas lié par les règles énon­cées à l’ar­tic­le 5(1), pre­mier ali­néa, point (g), dans la mesu­re où elles s’ap­pli­quent à l’uti­li­sa­ti­on de systè­mes de caté­go­ri­sa­ti­on bio­mé­tri­que pour les acti­vi­tés de coopé­ra­ti­on poli­ciè­re et de coopé­ra­ti­on judi­ciai­re en matiè­re péna­le, artic­le 5(1), pre­mier ali­néa, point (d), dans la mesu­re où il s’ap­pli­que à l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique cou­verts par cet­te dis­po­si­ti­on, l’ar­tic­le 5, para­gra­phe 1, pre­mier ali­néa, points (h), (2) à (6) et l’ar­tic­le 26, para­gra­phe 10, du pré­sent règle­ment adop­té sur la base de l’ar­tic­le 16 du TFEU ou sou­mis à son appli­ca­ti­on, qui se rap­portent au trai­te­ment de don­nées à carac­tère per­son­nel effec­tué par les États mem­bres lors de l’exé­cu­ti­on d’ac­ti­vi­tés rele­vant du cha­pit­re 4 ou du cha­pit­re 5 du tit­re V de la par­tie trois du TFEU.

(h) l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance ‘en temps réel’ dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi, sauf si et dans la mesu­re où cet­te uti­li­sa­ti­on est stric­te­ment néces­saire à l’un des objec­tifs suivants :

(i) la recher­che ciblée de vic­ti­mes spé­ci­fi­ques d’en­lè­ve­ment, de trai­te d’êtres humains ou d’ex­plo­ita­ti­on sexu­el­le d’êtres humains, ain­si que la recher­che de per­son­nes disparues ;

(ii) la pré­ven­ti­on d’u­ne men­ace spé­ci­fi­que, sub­stan­ti­el­le et immi­nen­te pour la vie ou la sécu­ri­té phy­si­que de per­son­nes phy­si­ques ou d’u­ne men­ace réel­le et actu­el­le ou réel­le et pré­vi­si­ble d’u­ne attaque terroriste ;

(iii) la loca­li­sa­ti­on ou l’i­den­ti­fi­ca­ti­on d’u­ne per­son­ne soup­çon­née d’a­voir com­mis une infrac­tion péna­le, aux fins d’u­ne enquête ou d’u­ne pour­suite péna­le ou de l’ap­pli­ca­ti­on d’u­ne pei­ne péna­le pour les infrac­tions visées à l’an­ne­xe II et punis­sa­bles dans l’É­tat membre con­cer­né par une pei­ne pri­va­ti­ve de liber­té ou une ordon­nan­ce de déten­ti­on pour une péri­ode maxi­ma­le d’au moins quat­re ans.

Le point (h) du pre­mier ali­néa s’ap­pli­que sans pré­ju­di­ce de l’ar­tic­le 9 du règle­ment (UE) 2016/679 pour le trai­te­ment de don­nées bio­mé­tri­ques à des fins aut­res que l’ap­pli­ca­ti­on de la loi.

(32) L’uti­li­sa­ti­on de systè­mes d’IA pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que “en temps réel” et à distance de per­son­nes phy­si­ques dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi est par­ti­cu­liè­re­ment intru­si­ve pour les droits et liber­tés des per­son­nes con­cer­nées, dans la mesu­re où elle peut affec­ter la vie pri­vée d’u­ne gran­de par­tie de la popu­la­ti­on, sus­ci­ter un sen­ti­ment de sur­veil­lan­ce con­stan­te et dissua­der indi­rec­te­ment l’e­xer­ci­ce de la liber­té d’as­so­cia­ti­on et d’aut­res droits fon­da­men­taux. Les inexac­ti­tu­des tech­ni­ques des systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance de per­son­nes phy­si­ques peu­vent con­dui­re à des résul­tats biai­sés et ent­raî­ner des effets dis­cri­mi­na­toires. Ces éven­tuels résul­tats biai­sés et effets dis­cri­mi­na­toires sont par­ti­cu­liè­re­ment per­tin­ents en ce qui con­cer­ne l’â­ge, l’eth­ni­ci­té, la race, le sexe ou les han­di­caps. En out­re, le carac­tère immé­di­at de l’im­pact et les pos­si­bi­li­tés limi­tées de con­trô­les ou de cor­rec­tions sup­p­lé­men­tai­res con­cer­nant l’uti­li­sa­ti­on de ces systè­mes en temps réel font peser des ris­ques accrus sur les droits et les liber­tés des per­son­nes con­cer­nées dans le cad­re d’ac­ti­vi­tés d’ap­pli­ca­ti­on de la loi ou affec­tées par de tel­les activités.

(33) L’uti­li­sa­ti­on de ces systè­mes à des fins d’ap­pli­ca­ti­on de la loi dev­rait donc être inter­di­te, sauf dans des situa­tions énu­mé­rées de maniè­re exhaus­ti­ve et défi­nies de maniè­re rest­ric­ti­ve, lorsque leur uti­li­sa­ti­on est stric­te­ment néces­saire pour att­eind­re un inté­rêt public sub­stan­tiel, dont l’im­portance dépas­se les ris­ques. Ces situa­tions com­pren­nent la recher­che de cer­tai­nes vic­ti­mes de cri­mes, y com­pris les per­son­nes disparues ; cer­tai­nes men­aces cont­re la vie ou la sécu­ri­té phy­si­que de per­son­nes phy­si­ques ou une attaque ter­ro­ri­ste ; et la loca­li­sa­ti­on ou l’i­den­ti­fi­ca­ti­on des auteurs ou des suspects des infrac­tions énu­mé­rées dans une anne­xe au pré­sent règle­ment, lorsque ces infrac­tions sont punis­sa­bles dans l’É­tat membre con­cer­né par une pei­ne pri­va­ti­ve de liber­té ou une ordon­nan­ce de déten­ti­on pour une durée maxi­ma­le d’au moins quat­re ans et tel­les qu’el­les sont défi­nies par la légis­la­ti­on de cet État membre. Un tel seuil pour la pei­ne de pri­son ou l’or­don­nan­ce de déten­ti­on, con­for­mé­ment au droit natio­nal, con­tri­bue à garan­tir que l’in­frac­tion dev­rait être suf­fi­sam­ment gra­ve pour justi­fier poten­ti­el­le­ment l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel”.

En out­re, la liste des infrac­tions four­nie dans une anne­xe au pré­sent règle­ment est basée sur les 32 infrac­tions énu­mé­rées dans la décis­i­on-cad­re du Con­seil 2002/584/JHA , en tenant comp­te du fait que cer­tai­nes de ces infrac­tions sont, en pra­tique, sus­cep­ti­bles d’êt­re plus per­ti­nen­tes que d’aut­res, en ce sens que le recours à l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” pour­rait, fore­see­ab­ly, be neces­sa­ry and pro­por­tio­na­te to high­ly vary­ing degrees for the prac­ti­cal pur­su­it of the loca­li­sa­ti­on or iden­ti­fi­ca­ti­on of a per­pe­tra­tor or suspect of the dif­fe­rent cri­mi­nal offen­ces listed and regar­ding the pro­ba­b­ly dif­fe­ren­ces in the serious­ness, pro­ba­bi­li­ty and sca­le of the harm or pos­si­ble nega­ti­ve con­se­quen­ces. Une men­ace immi­nen­te pour la vie ou la sécu­ri­té phy­si­que de per­son­nes phy­si­ques pour­rait éga­le­ment résul­ter d’u­ne per­tur­ba­ti­on gra­ve d’u­ne infras­truc­tu­re cri­tique, tel­le que défi­nie à l’ar­tic­le 2, point (4), de la direc­ti­ve (UE) 2022/2557 du Par­le­ment euro­pé­en et du Con­seil, lorsque la per­tur­ba­ti­on ou la des­truc­tion d’u­ne tel­le infras­truc­tu­re cri­tique ent­raî­nerait une men­ace immi­nen­te pour la vie ou la sécu­ri­té phy­si­que d’u­ne per­son­ne, y com­pris en portant gra­ve­ment att­ein­te à la four­ni­tu­re de biens de base à la popu­la­ti­on ou à l’e­xer­ci­ce des fonc­tions essen­ti­el­les de l’É­tat. En out­re, le pré­sent règle­ment dev­rait pré­ser­ver la pos­si­bi­li­té pour les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, du con­trô­le des fron­tiè­res, de l’im­mi­gra­ti­on ou de l’a­si­le de pro­cé­der à des con­trô­les d’i­den­ti­té en pré­sence de la per­son­ne con­cer­née, con­for­mé­ment aux con­di­ti­ons fixées par le droit de l’U­ni­on et le droit natio­nal pour de tels con­trô­les. En par­ti­cu­lier, les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, du con­trô­le des fron­tiè­res, de l’im­mi­gra­ti­on ou de l’a­si­le dev­rai­ent pou­voir uti­li­ser des systè­mes d’in­for­ma­ti­on, con­for­mé­ment au droit de l’U­ni­on ou au droit natio­nal, pour iden­ti­fier les per­son­nes qui, lors d’un con­trô­le d’i­den­ti­té, refu­sent d’êt­re iden­ti­fi­ées ou sont dans l’im­pos­si­bi­li­té de décla­rer ou de prou­ver leur iden­ti­té, sans devoir obte­nir une auto­ri­sa­ti­on pré­alable en ver­tu du pré­sent règle­ment. Il pour­rait s’a­gir, par exemp­le, d’u­ne per­son­ne impli­quée dans un crime, qui n’est pas dis­po­sée à révé­ler son iden­ti­té aux auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou qui n’est pas en mesu­re de le fai­re en rai­son d’un acci­dent ou d’u­ne con­di­ti­on médicale.

(34) Afin de garan­tir que ces systè­mes soi­ent uti­li­sés de maniè­re responsable et pro­por­ti­onnée, il est éga­le­ment important d’é­ta­b­lir que, dans cha­cu­ne de ces situa­tions énu­mé­rées de maniè­re exhaus­ti­ve et défi­nies de maniè­re rest­ric­ti­ve, cer­ta­ins élé­ments doi­vent être pris en comp­te, notam­ment en ce qui con­cer­ne la natu­re de la situa­ti­on don­nant lieu à la deman­de et les con­sé­quen­ces de l’uti­li­sa­ti­on pour les droits et liber­tés de tou­tes les per­son­nes con­cer­nées, ain­si que les garan­ties et con­di­ti­ons pré­vues pour cet­te uti­li­sa­ti­on. En out­re, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi ne dev­rait être mise en œuvre que pour con­firm­er l’i­den­ti­té de l’in­di­vi­du spé­ci­fi­quement visé et dev­rait être limi­tée à ce qui est stric­te­ment néces­saire en ce qui con­cer­ne la péri­ode de temps, ain­si que le champ géo­gra­phi­que et per­son­nel, en tenant comp­te en par­ti­cu­lier des preu­ves ou des indi­ca­ti­ons rela­ti­ves aux men­aces, aux vic­ti­mes ou au per­pe­tra­tor. L’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel et à distance dans des lieux acce­s­si­bles au public ne dev­rait être auto­ri­sée que si l’au­to­ri­té char­gée de l’ap­pli­ca­ti­on de la loi con­cer­née a pro­cé­dé à une éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux et, sauf dis­po­si­ti­on con­trai­re du pré­sent règle­ment, a enre­gi­stré le système dans la base de don­nées pré­vue par le pré­sent règle­ment. La base de don­nées de réfé­rence des per­son­nes dev­rait être appro­priée pour chaque cas d’uti­li­sa­ti­on dans cha­cu­ne des situa­tions men­ti­onnées ci-dessus.

(94) Tout trai­te­ment de don­nées bio­mé­tri­ques impli­qué dans l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à des fins d’ap­pli­ca­ti­on de la loi doit être con­for­me à l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680, qui auto­ri­se un tel trai­te­ment uni­quement lorsqu’il est stric­te­ment néces­saire, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés du sujet des don­nées, et lorsqu’il est auto­ri­sé par le droit de l’U­ni­on ou des États mem­bres. Une tel­le uti­li­sa­ti­on, lorsqu’el­le est auto­ri­sée, doit éga­le­ment respec­ter les prin­cipes énon­cés à l’ar­tic­le 4 (1) de la direc­ti­ve (UE) 2016/680, y com­pris la léga­li­té, l’é­qui­té et la trans­pa­rence, la limi­ta­ti­on des fina­li­tés, l’e­xac­ti­tu­de et la limi­ta­ti­on du stockage.

2. L’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi pour l’un quel­con­que des objec­tifs men­ti­onnés au para­gra­phe 1, pre­mier ali­néa, point (h), ne peut être déployée, aux fins énon­cées dans ce point, que pour con­firm­er l’i­den­ti­té de l’in­di­vi­du spé­ci­fi­quement visé et doit tenir comp­te des élé­ments suivants :

(a) la natu­re de la situa­ti­on don­nant lieu à l’uti­li­sa­ti­on pos­si­ble, en par­ti­cu­lier la gra­vi­té, la pro­ba­bi­li­té et l’am­pleur des dom­mages qui serai­ent causés si le système n’é­tait pas utilisé ;

(b) les con­sé­quen­ces de l’uti­li­sa­ti­on du système pour les droits et liber­tés de tou­tes les per­son­nes con­cer­nées, en par­ti­cu­lier la gra­vi­té, la pro­ba­bi­li­té et l’am­pleur de ces conséquences.

En out­re, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel dans des lieux publics à des fins d’ap­pli­ca­ti­on de la loi pour l’un des objec­tifs men­ti­onnés au para­gra­phe 1, pre­mier ali­néa, point (h), du pré­sent artic­le doit être assor­tie des garan­ties et con­di­ti­ons néces­saires et pro­por­ti­onnées en ce qui con­cer­ne leur uti­li­sa­ti­on, con­for­mé­ment à la légis­la­ti­on natio­na­le qui en auto­ri­se l’uti­li­sa­ti­on, notam­ment en ce qui con­cer­ne les limi­ta­ti­ons tem­po­rel­les, géo­gra­phi­ques et per­son­nel­les. L’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel dans les lieux acce­s­si­bles au public ne peut être auto­ri­sée que si l’au­to­ri­té char­gée de fai­re respec­ter la loi a pro­cé­dé à une éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux, com­me pré­vu à l’ar­tic­le 27, et a enre­gi­stré le système dans la base de don­nées de l’UE con­for­mé­ment à l’ar­tic­le 49. Tou­te­fois, en cas d’ur­gence dûment justi­fi­ée, l’uti­li­sa­ti­on de tels systè­mes peut com­men­cer sans enre­gi­stre­ment dans la base de don­nées de l’UE, à con­di­ti­on que cet enre­gi­stre­ment soit effec­tué sans retard injustifié.

(35) Tou­te uti­li­sa­ti­on d’un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi dev­rait être sou­mi­se à une auto­ri­sa­ti­on expres­se et spé­ci­fi­que d’u­ne auto­ri­té judi­ciai­re ou d’u­ne auto­ri­té admi­ni­stra­ti­ve indé­pen­dan­te d’un État membre dont la décis­i­on est con­traignan­te. Cet­te auto­ri­sa­ti­on dev­rait, en prin­ci­pe, être obte­nue avant l’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on auto­ma­tique en vue de l’i­den­ti­fi­ca­ti­on d’u­ne ou de plu­sieurs per­son­nes. Des excep­ti­ons à cet­te règ­le dev­rai­ent être auto­ri­sées dans des situa­tions dûment justi­fi­ées pour des rai­sons d’ur­gence, à savoir lorsque la néces­si­té d’uti­li­ser les systè­mes con­cer­nés est tel­le qu’il est effec­ti­ve­ment et objec­ti­ve­ment impos­si­ble d’ob­te­nir une auto­ri­sa­ti­on avant le début de l’uti­li­sa­ti­on du système d’IA. Dans de tel­les situa­tions d’ur­gence, l’uti­li­sa­ti­on du système IA dev­rait être limi­tée au strict mini­mum néces­saire et dev­rait être sou­mi­se à des garan­ties et con­di­ti­ons appro­priées, tel­les que déter­mi­nées par le droit natio­nal et spé­ci­fi­ées dans le con­tex­te de chaque cas indi­vi­du­el d’uti­li­sa­ti­on urgen­te par l’au­to­ri­té d’ap­pli­ca­ti­on de la loi elle-même. En out­re, l’au­to­ri­té char­gée de fai­re respec­ter la loi dev­rait, dans de tel­les situa­tions, deman­der cet­te auto­ri­sa­ti­on tout en four­nis­sant les rai­sons pour les­quel­les elle n’a pas pu la deman­der plus tôt, sans délai et au plus tard dans les 24 heu­res. En cas de refus d’u­ne tel­le auto­ri­sa­ti­on, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel liés à cet­te auto­ri­sa­ti­on doit ces­ser immé­dia­te­ment et tou­tes les don­nées rela­ti­ves à cet­te uti­li­sa­ti­on doi­vent être mises au rebut et sup­p­ri­mées. Ces don­nées com­pren­nent les don­nées d’en­trée direc­te­ment acqui­ses par un système d’i­den­ti­fi­ca­ti­on auto­ma­tique au cours de l’uti­li­sa­ti­on de ce système, ain­si que les résul­tats et les sor­ties de l’uti­li­sa­ti­on liée à cet­te auto­ri­sa­ti­on. Elles ne doi­vent pas inclu­re les don­nées acqui­ses léga­le­ment en ver­tu d’u­ne aut­re légis­la­ti­on de l’U­ni­on ou natio­na­le. En tout état de cau­se, aucu­ne décis­i­on pro­dui­sant un effet juri­di­que néga­tif sur une per­son­ne ne dev­rait être pri­se sur la seu­le base des résul­tats du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance.

3. Aux fins du para­gra­phe 1, pre­mier ali­néa, point (h), et du para­gra­phe 2, tou­te uti­li­sa­ti­on à des fins d’ap­pli­ca­ti­on de la loi d’un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public est sou­mi­se à une auto­ri­sa­ti­on pré­alable déli­v­rée par une auto­ri­té judi­ciai­re ou une auto­ri­té admi­ni­stra­ti­ve indé­pen­dan­te dont la décis­i­on est con­traignan­te pour l’É­tat membre dans lequel l’uti­li­sa­ti­on doit avoir lieu, sur deman­de moti­vée et con­for­mé­ment aux règles détail­lées de la légis­la­ti­on natio­na­le visées au para­gra­phe 5. Tou­te­fois, dans une situa­ti­on d’ur­gence dûment justi­fi­ée, l’uti­li­sa­ti­on de ce système peut com­men­cer sans auto­ri­sa­ti­on, à con­di­ti­on que cet­te auto­ri­sa­ti­on soit deman­dée sans retard inju­sti­fié, au plus tard dans les 24 heu­res. En cas de refus d’u­ne tel­le auto­ri­sa­ti­on, l’uti­li­sa­ti­on est arrê­tée avec effet immé­di­at et tou­tes les don­nées, ain­si que les résul­tats et les pro­duc­tions de cet­te uti­li­sa­ti­on, sont immé­dia­te­ment effa­cées et détruites.

L’au­to­ri­té judi­ciai­re com­pé­ten­te ou une auto­ri­té admi­ni­stra­ti­ve indé­pen­dan­te dont la décis­i­on est con­traignan­te ne peut accor­der l’au­to­ri­sa­ti­on que s’il est éta­b­li, sur la base de preu­ves objec­ti­ves ou d’in­di­ca­ti­ons clai­res à son inten­ti­on, que l’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” en que­sti­on est néces­saire et pro­por­ti­onnée à l’un des objec­tifs visés au para­gra­phe 1, pre­mier ali­néa, point (h), tels qu’i­den­ti­fi­és dans la deman­de et, en par­ti­cu­lier, qu’el­le se limi­te à ce qui est stric­te­ment néces­saire en ce qui con­cer­ne la péri­ode de temps ain­si que la por­tée géo­gra­phi­que et per­son­nel­le. En sta­tu­ant sur la deman­de, cet­te auto­ri­té tient comp­te des élé­ments men­ti­onnés au para­gra­phe 2. Aucu­ne décis­i­on pro­dui­sant un effet juri­di­que néga­tif sur une per­son­ne ne peut être pri­se sur la seu­le base des résul­tats du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel”.

4. Sans pré­ju­di­ce du para­gra­phe 3, tou­te uti­li­sa­ti­on d’un système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi est noti­fi­ée à l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née et à l’au­to­ri­té natio­na­le char­gée de la pro­tec­tion des don­nées con­for­mé­ment aux règles natio­na­les visées au para­gra­phe 5. La noti­fi­ca­ti­on con­ti­ent, au mini­mum, les infor­ma­ti­ons spé­ci­fi­ées au para­gra­phe 6 et n’in­clut pas de don­nées opé­ra­ti­on­nel­les sensibles.

5. Un État membre peut déci­der de pré­voir la pos­si­bi­li­té d’au­to­ri­ser, en tout ou en par­tie, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi, dans les limi­tes et sous les con­di­ti­ons énon­cées au para­gra­phe 1, pre­mier ali­néa, point (h), et aux para­gra­phes 2 et 3. Les États mem­bres con­cer­nés éta­blis­sent dans leur légis­la­ti­on natio­na­le les règles détail­lées néces­saires à la deman­de, à l’ob­ten­ti­on et à l’e­xer­ci­ce des auto­ri­sa­ti­ons visées au para­gra­phe 3, ain­si qu’au con­trô­le et à la com­mu­ni­ca­ti­on des infor­ma­ti­ons y affé­ren­tes. Ces règles pré­cis­ent éga­le­ment, par­mi les objec­tifs énu­mé­rés au para­gra­phe 1, pre­mier ali­néa, point h), y com­pris ceux qui con­cer­nent les infrac­tions visées au point h) iii), ceux pour les­quels les auto­ri­tés com­pé­ten­tes peu­vent être auto­ri­sées à uti­li­ser ces systè­mes à des fins d’ap­pli­ca­ti­on de la loi. Les États mem­bres noti­fi­ent ces règles à la Com­mis­si­on au plus tard 30 jours après leur adop­ti­on. Les États mem­bres peu­vent intro­dui­re, con­for­mé­ment à la légis­la­ti­on de l’U­ni­on, des lois plus rest­ric­ti­ves con­cer­nant l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance.

(37) En out­re, il est appro­prié de pré­voir, dans le cad­re exhaus­tif fixé par le pré­sent règle­ment, que cet­te uti­li­sa­ti­on sur le ter­ri­toire d’un État membre con­for­mé­ment au pré­sent règle­ment ne dev­rait être pos­si­ble que si et dans la mesu­re où l’É­tat membre con­cer­né a déci­dé de pré­voir expres­sé­ment la pos­si­bi­li­té d’au­to­ri­ser une tel­le uti­li­sa­ti­on dans ses règles détail­lées de droit natio­nal. En con­sé­quence, les États mem­bres restent libres, en ver­tu du pré­sent règle­ment, de ne pas pré­voir une tel­le pos­si­bi­li­té dans son inté­gra­li­té ou de ne pré­voir une tel­le pos­si­bi­li­té que pour cer­ta­ins des objec­tifs sus­cep­ti­bles de justi­fier une uti­li­sa­ti­on auto­ri­sée iden­ti­fi­és dans le pré­sent règle­ment. Ces règles natio­na­les doi­vent être noti­fi­ées à la Com­mis­si­on dans un délai de 30 jours à comp­ter de leur adoption.

(38) L’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel et à distance de per­son­nes phy­si­ques dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi impli­que néces­saire­ment le trai­te­ment de don­nées bio­mé­tri­ques. Les règles du pré­sent règle­ment qui inter­di­sent, sous réser­ve de cer­tai­nes excep­ti­ons, une tel­le uti­li­sa­ti­on, qui sont fon­dées sur l’ar­tic­le 16 du TFEU, dev­rai­ent s’ap­pli­quer en tant que lex spe­cia­lis dans le respect des règles rela­ti­ves au trai­te­ment des don­nées bio­mé­tri­ques con­te­nues dans l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680, régle­mentant ain­si de maniè­re exhaus­ti­ve une tel­le uti­li­sa­ti­on et le trai­te­ment des don­nées bio­mé­tri­ques impli­quées. Par con­sé­quent, cet­te uti­li­sa­ti­on et ce trai­te­ment ne dev­rai­ent être pos­si­bles que dans la mesu­re où ils sont com­pa­ti­bles avec le cad­re fixé par le pré­sent règle­ment, sans qu’il y ait de mar­ge, en dehors de ce cad­re, pour que les auto­ri­tés com­pé­ten­tes, lorsqu’el­les agis­sent à des fins d’ap­pli­ca­ti­on de la loi, uti­li­sent de tels systè­mes et trai­tent ces don­nées en rela­ti­on avec ceux-ci sur la base des motifs énu­mé­rés à l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680. Dans ce con­tex­te, le pré­sent règle­ment n’est pas desti­né à four­nir la base juri­di­que pour le trai­te­ment des don­nées à carac­tère per­son­nel en ver­tu de l’ar­tic­le 8 de la direc­ti­ve (UE) 2016/680. Tou­te­fois, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel et à distance dans des lieux acce­s­si­bles au public à des fins aut­res que l’ap­pli­ca­ti­on de la loi, y com­pris par les auto­ri­tés com­pé­ten­tes, ne dev­rait pas être cou­ver­te par le cad­re spé­ci­fi­que con­cer­nant cet­te uti­li­sa­ti­on à des fins d’ap­pli­ca­ti­on de la loi éta­b­li par le pré­sent règle­ment. Une tel­le uti­li­sa­ti­on à des fins aut­res que l’ap­pli­ca­ti­on de la loi ne dev­rait donc pas être sou­mi­se à l’ob­li­ga­ti­on d’ob­te­nir une auto­ri­sa­ti­on en ver­tu du pré­sent règle­ment et des règles détail­lées appli­ca­bles du droit natio­nal qui peu­vent don­ner effet à cet­te autorisation.

(39) Tout trai­te­ment de don­nées bio­mé­tri­ques et d’aut­res don­nées à carac­tère per­son­nel impli­qué dans l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que, aut­re que celui lié à l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel et à distance dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi tel­le que régle­men­tée par le pré­sent règle­ment, dev­rait con­tin­uer à respec­ter tou­tes les exi­gen­ces résul­tant de l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680. Pour des rai­sons aut­res que l’ap­pli­ca­ti­on de la loi, l’ar­tic­le 9(1) du règle­ment (UE) 2016/679 et l’ar­tic­le 10(1) du règle­ment (UE) 2018/1725 inter­di­sent le trai­te­ment de don­nées bio­mé­tri­ques sous réser­ve d’ex­cep­ti­ons limi­tées tel­les que pré­vues dans ces artic­les. En appli­ca­ti­on de l’ar­tic­le 9, para­gra­phe 1, du règle­ment (UE) 2016/679, l’uti­li­sa­ti­on de l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance à des fins aut­res que l’ap­pli­ca­ti­on de la loi a déjà fait l’ob­jet de décis­i­ons d’in­ter­dic­tion par les auto­ri­tés natio­na­les de pro­tec­tion des données.

6. Les auto­ri­tés natio­na­les de sur­veil­lan­ce du mar­ché et les auto­ri­tés natio­na­les char­gées de la pro­tec­tion des don­nées des États mem­bres qui ont été infor­mées de l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance “en temps réel” dans des lieux acce­s­si­bles au public à des fins d’ap­pli­ca­ti­on de la loi sou­met­tent à la Com­mis­si­on des rap­ports annu­els sur cet­te uti­li­sa­ti­on. cet­te fin, la Com­mis­si­on four­nit aux États mem­bres et aux auto­ri­tés natio­na­les char­gées de la sur­veil­lan­ce du mar­ché et de la pro­tec­tion des don­nées un modè­le com­prenant des infor­ma­ti­ons sur le nombre de décis­i­ons pri­ses par les auto­ri­tés judi­ciai­res com­pé­ten­tes ou par une auto­ri­té admi­ni­stra­ti­ve indé­pen­dan­te dont la décis­i­on est con­traignan­te pour les deman­des d’au­to­ri­sa­ti­on pré­sen­tées con­for­mé­ment au para­gra­phe 3, ain­si que sur leur résultat.

(36) Afin de s’ac­quit­ter de leurs tâches con­for­mé­ment aux exi­gen­ces fixées dans le pré­sent règle­ment ain­si que dans les règles natio­na­les, l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née et l’au­to­ri­té natio­na­le char­gée de la pro­tec­tion des don­nées doi­vent être infor­mées de chaque uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel. Les auto­ri­tés de sur­veil­lan­ce du mar­ché et les auto­ri­tés natio­na­les char­gées de la pro­tec­tion des don­nées qui ont été noti­fi­ées dev­rai­ent sou­mett­re à la Com­mis­si­on un rap­port annu­el sur l’uti­li­sa­ti­on des systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel.

7. La Com­mis­si­on publie des rap­ports annu­els sur l’uti­li­sa­ti­on, à des fins d’ap­pli­ca­ti­on de la loi, de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que en temps réel et à distance dans des lieux acce­s­si­bles au public, sur la base de don­nées agré­gées dans les États mem­bres, sur la base des rap­ports annu­els visés au para­gra­phe 6. Ces rap­ports annu­els ne con­ti­en­nent pas de don­nées opé­ra­ti­on­nel­les sen­si­bles rela­ti­ves aux acti­vi­tés d’ap­pli­ca­ti­on de la loi concernées.

8. Le pré­sent artic­le n’af­fec­te pas les inter­dic­tions qui s’ap­pli­quent lorsqu’u­ne pra­tique AI enfreint d’aut­res lois de l’Union.

(45) Les pra­ti­ques inter­di­tes par le droit de l’U­ni­on, y com­pris le droit rela­tif à la pro­tec­tion des don­nées, le droit rela­tif à la non-dis­cri­mi­na­ti­on, le droit rela­tif à la pro­tec­tion des con­som­ma­teurs et le droit rela­tif à la con­cur­rence, ne dev­rai­ent pas être affec­tées par le pré­sent règlement.

Cha­pit­re III Systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut risque

Sec­tion 1 Clas­si­fi­ca­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut risque

Artic­le 6 Règles de clas­si­fi­ca­ti­on des systè­mes d’IA à haut risque

(46) Les systè­mes d’IA à haut ris­que ne dev­rai­ent être mis sur le mar­ché, en ser­vice ou uti­li­sés dans l’U­ni­on que s’ils satis­font à cer­tai­nes exi­gen­ces obli­ga­toires. Ces exi­gen­ces dev­rai­ent garan­tir que les systè­mes d’IA à haut ris­que dis­po­ni­bles dans l’U­ni­on ou dont la pro­duc­tion est uti­li­sée d’u­ne aut­re maniè­re dans l’U­ni­on ne pré­sen­tent pas de ris­ques inac­cep­ta­bles pour les inté­rêts publics importants de l’U­ni­on tels qu’ils sont recon­nus et pro­té­gés par le droit de l’U­ni­on. Sur la base du nou­veau cad­re légis­la­tif, tel que cla­ri­fié dans la com­mu­ni­ca­ti­on de la Com­mis­si­on inti­tulée “Le gui­de bleu sur la mise en œuvre des règles de l’UE rela­ti­ves aux pro­duits 2022“20 , la règ­le géné­ra­le est que plus d’un acte juri­di­que d’har­mo­ni­sa­ti­on de l’U­ni­on, tels que les règle­ments (UE) 2017/74521 et (UE) 2017/74622 du Par­le­ment euro­pé­en et du Con­seil ou la direc­ti­ve 2006/42/CE du Par­le­ment euro­pé­en et du Conseil23 , peut être appli­ca­ble à un pro­duit, car la mise à dis­po­si­ti­on ou la mise en ser­vice ne peut avoir lieu que si le pro­duit est con­for­me à tou­tes les légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on appli­ca­bles. Afin d’assurer la cohé­rence et d’é­vi­ter des char­ges ou des coûts admi­ni­stra­tifs inu­tiles, les four­nis­seurs d’un pro­duit con­tenant un ou plu­sieurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, aux­quels s’ap­pli­quent les exi­gen­ces du pré­sent règle­ment et de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée dans une anne­xe au pré­sent règle­ment, doi­vent dis­po­ser d’u­ne cer­taine sou­ples­se en ce qui con­cer­ne les décis­i­ons opé­ra­ti­on­nel­les rela­ti­ves à la maniè­re d’assurer la con­for­mi­té d’un pro­duit con­tenant un ou plu­sieurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le avec tou­tes les exi­gen­ces appli­ca­bles de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on, de maniè­re opti­ma­le. Les systè­mes IA iden­ti­fi­és com­me pré­sen­tant un ris­que éle­vé dev­rai­ent être limi­tés à ceux qui ont un impact néga­tif signi­fi­ca­tif sur la san­té, la sécu­ri­té et les droits fon­da­men­taux des per­son­nes dans l’U­ni­on, et cet­te limi­ta­ti­on dev­rait mini­mi­ser tou­te rest­ric­tion poten­ti­el­le au com­mer­ce international.

(166) Il est important que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le asso­ciés à des pro­duits qui ne pré­sen­tent pas de ris­que éle­vé au sens du pré­sent règle­ment et qui ne sont donc pas tenus de respec­ter les exi­gen­ces fixées pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que soi­ent néan­mo­ins sûrs lorsqu’ils sont mis sur le mar­ché ou mis en ser­vice. Pour con­tri­buer à cet objec­tif, le règle­ment (UE) 2023/988 du Par­le­ment euro­pé­en et du Con­seil s’ap­pli­quer­ait en tant que filet de sécurité.

1. Qu’un système d’in­tel­li­gence arti­fi­ci­el­le soit mis sur le mar­ché ou mis en ser­vice indé­pen­dam­ment des pro­duits men­ti­onnés aux points (a) et (b), ce système d’in­tel­li­gence arti­fi­ci­el­le est con­sidé­ré com­me pré­sen­tant un ris­que éle­vé si les deux con­di­ti­ons sui­van­tes sont remplies :

(a) le système IA est desti­né à être uti­li­sé en tant que com­po­sant de sécu­ri­té d’un pro­duit, ou le système IA est lui-même un pro­duit cou­vert par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I ;

(49) En ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont des com­po­sants de sécu­ri­té de pro­duits ou de systè­mes, ou qui sont eux-mêmes des pro­duits ou des systè­mes rele­vant du champ d’ap­pli­ca­ti­on du règle­ment (CE) n° 300/2008 du Par­le­ment euro­pé­en et du Con­seil , du règle­ment (UE) n° 167/2013 du Par­le­ment euro­pé­en et du Con­seil , du règle­ment (UE) n° 168/2013 du Par­le­ment euro­pé­en et du Con­seil , de la direc­ti­ve 2014/90/UE du Par­le­ment euro­pé­en et du Con­seil , de la direc­ti­ve (UE) 2016/797 du Par­le­ment euro­pé­en et du Con­seil , du règle­ment (UE) 2018/858 du Par­le­ment euro­pé­en et du Con­seil , règle­ment (UE) 2018/1139 du Par­le­ment euro­pé­en et du Con­seil , et règle­ment (UE) 2019/2144 du Par­le­ment euro­pé­en et du Con­seil, il con­vi­ent de modi­fier ces actes afin de garan­tir que la Com­mis­si­on tien­ne comp­te, sur la base des spé­ci­fi­ci­tés tech­ni­ques et régle­men­tai­res de chaque sec­teur et sans inter­fé­rer avec les méca­nis­mes de gou­ver­nan­ce, d’éva­lua­ti­on de la con­for­mi­té et de mise en con­for­mi­té exi­stants et les auto­ri­tés éta­b­lies en ver­tu de ceux-ci, des exi­gen­ces régle­men­tai­res appli­ca­bles aux systè­mes d’IA à haut ris­que énon­cées dans le pré­sent règle­ment lors de l’ad­op­ti­on de tout acte délé­gué ou d’exé­cu­ti­on per­ti­nent sur la base de ces actes.

(b) le pro­duit dont le com­po­sant de sécu­ri­té visé au point (a) est le système IA, ou le système IA lui-même en tant que pro­duit, doit fai­re l’ob­jet d’u­ne éva­lua­ti­on de la con­for­mi­té par un tiers en vue de sa mise sur le mar­ché ou de sa mise en ser­vice con­for­mé­ment à la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on visée à l’an­ne­xe I.

(50) En ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des com­po­sants de sécu­ri­té de pro­duits, ou qui sont eux-mêmes des pro­duits, rele­vant du champ d’ap­pli­ca­ti­on de cer­tai­nes légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rées dans une anne­xe au pré­sent règle­ment, il con­vi­ent de les clas­ser com­me pré­sen­tant un ris­que éle­vé au tit­re du pré­sent règle­ment si le pro­duit con­cer­né est sou­mis à la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té avec un orga­nis­me d’éva­lua­ti­on de la con­for­mi­té tiers con­for­mé­ment à ladi­te légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on. En par­ti­cu­lier, ces pro­duits sont les machi­nes, les jou­ets, les ascen­seurs, les équi­pe­ments et les systè­mes de pro­tec­tion desti­nés à être uti­li­sés dans des atmo­sphè­res poten­ti­el­le­ment explo­si­ves, les équi­pe­ments radio, les équi­pe­ments de loi­sirs, les instal­la­ti­ons de che­min de fer, les appareils brûlant des com­bu­sti­bles gazeux, les dis­po­si­tifs médi­caux de dia­gno­stic in vitro, l’au­to­mo­bi­le et l’aviation.

(51) La clas­si­fi­ca­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le com­me étant à haut ris­que en ver­tu du pré­sent règle­ment ne dev­rait pas néces­saire­ment signi­fier que le pro­duit dont le com­po­sant de sécu­ri­té est le système d’in­tel­li­gence arti­fi­ci­el­le, ou le système d’in­tel­li­gence arti­fi­ci­el­le lui-même en tant que pro­duit, est con­sidé­ré com­me étant à haut ris­que selon les critères étab­lis dans la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on per­ti­nen­te qui s’ap­pli­que au pro­duit. C’est notam­ment le cas pour les règle­ments (UE) 2017/745 et (UE) 2017/746, dans les­quels une éva­lua­ti­on de la con­for­mi­té par un tiers est four­nie pour les pro­duits à ris­que moy­en et élevé.

(52) En ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le auto­no­mes, à savoir les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que aut­res que ceux qui sont des com­po­sants de sécu­ri­té de pro­duits ou qui sont eux-mêmes des pro­duits, il est appro­prié de les clas­ser com­me étant à haut ris­que si, à la lumiè­re de leur objec­tif pré­vu, ils pré­sen­tent un ris­que éle­vé de por­ter att­ein­te à la san­té et à la sécu­ri­té ou aux droits fon­da­men­taux des per­son­nes, en tenant comp­te à la fois de la gra­vi­té du dom­mage poten­tiel et de sa pro­ba­bi­li­té d’oc­cur­rence, et s’ils sont uti­li­sés dans un cer­tain nombre de domain­es spé­ci­fi­ques pré­dé­fi­nis spé­ci­fi­és dans le pré­sent règle­ment. L’i­den­ti­fi­ca­ti­on de ces systè­mes se fon­de sur la même métho­do­lo­gie et les mêmes critères envi­sa­gés éga­le­ment pour tou­te modi­fi­ca­ti­on future de la liste des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que que la Com­mis­si­on dev­rait être habi­li­tée à adop­ter, par voie d’ac­tes délé­gués, afin de tenir comp­te du ryth­me rapi­de de l’é­vo­lu­ti­on tech­no­lo­gi­que, ain­si que des chan­ge­ments poten­tiels dans l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence artificielle.

2. Out­re les systè­mes IA à haut ris­que visés au para­gra­phe 1, les systè­mes IA visés à l’an­ne­xe III sont con­sidé­rés com­me à haut risque.

(47) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour­rai­ent avoir un impact néga­tif sur la san­té et la sécu­ri­té des per­son­nes, en par­ti­cu­lier lorsque ces systè­mes fonc­tion­nent com­me des com­po­sants de sécu­ri­té des pro­duits. Con­for­mé­ment aux objec­tifs de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on visa­nt à faci­li­ter la lib­re cir­cula­ti­on des pro­duits sur le mar­ché inté­ri­eur et à garan­tir que seuls les pro­duits sûrs et autre­ment con­for­mes trou­vent leur che­min vers le mar­ché, il est important que les ris­ques de sécu­ri­té qui peu­vent être géné­rés par un pro­duit dans son ensem­ble en rai­son de ses com­po­sants numé­ri­ques, y com­pris les systè­mes d’IA, soi­ent pré­ve­nus et atté­nués de maniè­re appro­priée. Par exemp­le, les robots de plus en plus auto­no­mes, que ce soit dans le cad­re de la fab­ri­ca­ti­on ou de l’as­si­stance et des soins per­son­nels, dev­rai­ent être en mesu­re de fonc­tion­ner en tou­te sécu­ri­té et d’exé­cu­ter leurs fonc­tions dans des envi­ron­ne­ments com­ple­xes. De même, dans le sec­teur de la san­té, où les enjeux pour la vie et la san­té sont par­ti­cu­liè­re­ment éle­vés, les systè­mes de dia­gno­stic de plus en plus sophi­sti­qués et les systè­mes d’ai­de à la décis­i­on humaine doi­vent être fia­bles et précis.

(48) L’am­pleur de l’im­pact néga­tif du système d’in­tel­li­gence arti­fi­ci­el­le sur les droits fon­da­men­taux pro­té­gés par la Char­te est par­ti­cu­liè­re­ment per­ti­nen­te lorsqu’on con­sidè­re qu’un système d’in­tel­li­gence arti­fi­ci­el­le pré­sen­te un ris­que éle­vé. Ces droits com­pren­nent le droit à la dignité humaine, le respect de la vie pri­vée et fami­lia­le, la pro­tec­tion des don­nées per­son­nel­les, la liber­té d’ex­pres­si­on et d’in­for­ma­ti­on, la liber­té d’as­so­cia­ti­on et de réuni­on, le droit à la non-dis­cri­mi­na­ti­on, le droit à l’é­du­ca­ti­on, la pro­tec­tion des con­som­ma­teurs, les droits des tra­vail­leurs, les droits des per­son­nes han­di­ca­pées, l’é­ga­li­té des sexes, les droits de pro­prié­té intellec­tu­el­le, le droit à un recours effec­tif et à un procès équi­ta­ble, le droit à la défen­se et la pré­somp­ti­on d’in­no­cence, et le droit à la bon­ne admi­ni­stra­ti­on. En plus de ces droits, il est important de souli­gner le fait que les enfants ont des droits spé­ci­fi­ques tels qu’é­non­cés à l’ar­tic­le 24 de la Char­te et dans la Con­ven­ti­on des Nati­ons unies rela­ti­ve aux droits de l’en­fant, déve­lo­p­pés plus avant dans le Com­men­tai­re géné­ral n° 25 de la CNUCED en ce qui con­cer­ne l’en­vi­ron­ne­ment numé­ri­que, qui exi­gent tous deux la pri­se en comp­te des vul­né­ra­bi­li­tés des enfants et la four­ni­tu­re d’u­ne pro­tec­tion et de soins aus­si importants que néces­saire pour leur bien-être. The fun­da­men­tal right to a high level of envi­ron­men­tal pro­tec­tion enshri­ned in the Char­ter and imple­men­ted in Uni­on poli­ci­es should also be con­side­red when asses­sing the seve­ri­ty of the harm that an AI system can cau­se, inclu­ding in rela­ti­on to the health and safe­ty of persons.

3. Par déro­ga­ti­on au para­gra­phe 2, un système IA men­ti­onné à l’an­ne­xe III n’est pas con­sidé­ré com­me pré­sen­tant un ris­que éle­vé s’il ne pré­sen­te pas un ris­que signi­fi­ca­tif de por­ter att­ein­te à la san­té, à la sécu­ri­té ou aux droits fon­da­men­taux de per­son­nes phy­si­ques, notam­ment en n’in­fluen­çant pas maté­ri­el­le­ment le résul­tat de la pri­se de décision.

Le pre­mier ali­néa s’ap­pli­que lorsque l’u­ne des con­di­ti­ons sui­van­tes est remplie :

(a) le système IA est desti­né à exé­cu­ter une tâche pro­cé­du­ra­le étroite ;

(b) le système d’IA est desti­né à amé­lio­rer le résul­tat d’u­ne acti­vi­té humaine pré­cé­dem­ment accomplie ;

(c) le système IA est desti­né à détec­ter des sché­mas décis­i­on­nels ou des dévia­ti­ons par rap­port à des sché­mas décis­i­on­nels anté­ri­eurs et n’est pas desti­né à rem­pla­cer ou à influen­cer l’éva­lua­ti­on humaine pré­cé­dem­ment effec­tuée, sans un examen humain appro­prié ; ou

(d) le système IA est desti­né à effec­tuer une tâche pré­pa­ra­toire à une éva­lua­ti­on per­ti­nen­te aux fins des cas d’uti­li­sa­ti­on énu­mé­rés à l’an­ne­xe III.

Non­ob­stant le pre­mier ali­néa, un système d’in­tel­li­gence arti­fi­ci­el­le visé à l’an­ne­xe III est tou­jours con­sidé­ré com­me pré­sen­tant un ris­que éle­vé lorsqu’il procè­de au pro­fi­la­ge de per­son­nes physiques.

(53) Il est éga­le­ment important de pré­cis­er qu’il peut y avoir des cas spé­ci­fi­ques dans les­quels les systè­mes d’IA men­ti­onnés dans les domain­es pré­dé­fi­nis spé­ci­fi­és dans le pré­sent règle­ment ne con­dui­sent pas à un ris­que signi­fi­ca­tif de pré­ju­di­ce pour les inté­rêts légaux pro­té­gés dans ces domain­es, par­ce qu’ils n’in­fluen­cent pas maté­ri­el­le­ment la pri­se de décis­i­on ou ne portent pas att­ein­te à ces inté­rêts de maniè­re sub­stan­ti­el­le. Aux fins du pré­sent règle­ment, un système d’in­tel­li­gence arti­fi­ci­el­le qui n’in­fluence pas maté­ri­el­le­ment l’issue de la pri­se de décis­i­on doit être con­sidé­ré com­me un système d’in­tel­li­gence arti­fi­ci­el­le qui n’a pas d’in­ci­dence sur la sub­stance, et donc sur l’issue, de la pri­se de décis­i­on, qu’el­le soit humaine ou auto­ma­ti­sée. Un système d’IA qui n’in­fluence pas maté­ri­el­le­ment le résul­tat de la pri­se de décis­i­on pour­rait inclu­re des situa­tions dans les­quel­les une ou plu­sieurs des con­di­ti­ons sui­van­tes sont rem­plies. La pre­miè­re de ces con­di­ti­ons dev­rait être que le système IA est desti­né à exé­cu­ter une tâche pro­cé­du­ra­le étroi­te, com­me un système IA qui trans­for­me des don­nées non struc­tu­rées en don­nées struc­tu­rées, un système IA qui clas­se les docu­ments ent­rants en caté­go­ries ou un système IA qui est uti­li­sé pour détec­ter des dou­blons par­mi un grand nombre d’ap­pli­ca­ti­ons. Ces tâches sont d’u­ne natu­re si étroi­te et limi­tée qu’el­les ne pré­sen­tent que des ris­ques limi­tés qui ne sont pas accrus par l’uti­li­sa­ti­on d’un système d’IA dans un con­tex­te qui est réper­to­rié com­me une uti­li­sa­ti­on à haut ris­que dans une anne­xe au pré­sent règle­ment. La deu­xiè­me con­di­ti­on dev­rait être que la tâche effec­tuée par le système d’IA vise à amé­lio­rer le résul­tat d’u­ne acti­vi­té humaine pré­cé­dem­ment accom­plie qui pour­rait être per­ti­nen­te aux fins des uti­li­sa­ti­ons à haut ris­que énu­mé­rées dans une anne­xe au pré­sent règle­ment. Comp­te tenu de ces carac­té­ri­sti­ques, le système d’in­tel­li­gence arti­fi­ci­el­le n’ap­por­te qu’u­ne couche sup­p­lé­men­tai­re à une acti­vi­té humaine dont le ris­que est par con­sé­quent réduit. That con­di­ti­on would, for exam­p­le, app­ly to AI systems that are inten­ded to impro­ve the lan­guage used in pre­vious­ly draf­ted docu­ments, for exam­p­le in rela­ti­on to pro­fes­sio­nal tone, aca­de­mic style of lan­guage or by alig­ning text to a cer­tain brand messaging.

La troi­siè­me con­di­ti­on dev­rait être que le système IA soit desti­né à détec­ter des sché­mas de pri­se de décis­i­on ou des dévia­ti­ons par rap­port à des sché­mas de pri­se de décis­i­on anté­ri­eurs. Le ris­que serait réduit par­ce que l’uti­li­sa­ti­on du système IA suit une éva­lua­ti­on humaine pré­alable qu’il n’est pas cen­sé rem­pla­cer ou influen­cer, sans une révi­si­on humaine adé­qua­te. De tels systè­mes d’IA inclu­ent par exemp­le ceux qui, à par­tir d’un cer­tain modè­le de nota­ti­on d’un ens­eig­nant, peu­vent être uti­li­sés pour véri­fier ex post si l’ens­eig­nant peut s’êt­re écar­té du modè­le de nota­ti­on afin de détec­ter des incohé­ren­ces ou des anoma­lies poten­ti­el­les. La qua­triè­me con­di­ti­on dev­rait être que le système d’IA soit desti­né à effec­tuer une tâche qui n’est que pré­pa­ra­toire à une éva­lua­ti­on per­ti­nen­te pour les objec­tifs des systè­mes d’IA énu­mé­rés dans une anne­xe au pré­sent règle­ment, rendant ain­si l’im­pact pos­si­ble de la sor­tie du système très fai­ble en ter­mes de repré­sen­ta­ti­on d’un ris­que pour l’éva­lua­ti­on à sui­v­re. That con­di­ti­on covers, inter alia, smart solu­ti­ons for file hand­ling, which include various func­tions from index­ing, sear­ching, text and speech pro­ce­s­sing or lin­king data to other data sources, or AI systems used for trans­la­ti­on of initi­al docu­ments. En tout état de cau­se, les systè­mes d’IA uti­li­sés dans des cas d’uti­li­sa­ti­on à haut ris­que énu­mé­rés dans une anne­xe au pré­sent règle­ment dev­rai­ent être con­sidé­rés com­me pré­sen­tant des ris­ques signi­fi­ca­tifs de pré­ju­di­ce pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux si le système d’IA impli­que un pro­fi­la­ge au sens de l’ar­tic­le 4, point (4), du règle­ment (UE) 2016/679 ou de l’ar­tic­le 3, point (4), de la direc­ti­ve (UE) 2016/680 ou de l’ar­tic­le 3, point (5), du règle­ment (UE) 2018/1725. Afin d’assurer la tra­ça­bi­li­té et la trans­pa­rence, un four­nis­seur qui esti­me qu’un système d’IA ne pré­sen­te pas de ris­que éle­vé sur la base des con­di­ti­ons sus­ment­i­onnées dev­rait éta­b­lir une docu­men­ta­ti­on rela­ti­ve à l’éva­lua­ti­on avant que ce système ne soit mis sur le mar­ché ou en ser­vice et dev­rait four­nir cet­te docu­men­ta­ti­on aux auto­ri­tés natio­na­les com­pé­ten­tes à leur deman­de. Un tel four­nis­seur dev­rait être tenu d’en­re­gi­strer le système d’assu­rance inva­li­di­té dans la base de don­nées de l’UE éta­b­lie en ver­tu du pré­sent règle­ment. En vue de four­nir des ori­en­ta­ti­ons sup­p­lé­men­tai­res pour la mise en œuvre pra­tique des con­di­ti­ons dans les­quel­les les systè­mes d’IA énu­mé­rés dans une anne­xe au pré­sent règle­ment pré­sen­tent, sur une base excep­ti­on­nel­le, un ris­que non éle­vé, la Com­mis­si­on dev­rait, après con­sul­ta­ti­on du Con­seil, four­nir des lignes direc­tri­ces pré­cisant cet­te mise en œuvre pra­tique, com­plé­tées par une liste exhaus­ti­ve d’exemp­les pra­ti­ques de cas d’uti­li­sa­ti­on de systè­mes d’IA qui pré­sen­tent un ris­que éle­vé et de cas d’uti­li­sa­ti­on qui ne le pré­sen­tent pas.

4. Un four­nis­seur qui esti­me qu’un système d’assu­rance inva­li­di­té visé à l’an­ne­xe III ne pré­sen­te pas un ris­que éle­vé doit docu­men­ter son éva­lua­ti­on avant que ce système ne soit mis sur le mar­ché ou en ser­vice. Ce four­nis­seur est sou­mis à l’ob­li­ga­ti­on d’en­re­gi­stre­ment pré­vue à l’ar­tic­le 49, para­gra­phe 2. À la deman­de des auto­ri­tés natio­na­les com­pé­ten­tes, le four­nis­seur doit four­nir la docu­men­ta­ti­on rela­ti­ve à l’évaluation.

5. La Com­mis­si­on, après avoir con­sul­té le Con­seil euro­pé­en de l’in­tel­li­gence arti­fi­ci­el­le (le “Con­seil”), et au plus tard … [18 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], four­nit des lignes direc­tri­ces pré­cisant la mise en œuvre pra­tique du pré­sent artic­le con­for­mé­ment à l’ar­tic­le 96, ain­si qu’u­ne liste exhaus­ti­ve d’exemp­les pra­ti­ques d’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et à fai­ble risque.

6. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier le para­gra­phe 3, deu­xiè­me ali­néa, du pré­sent artic­le en ajoutant de nou­vel­les con­di­ti­ons à cel­les qui y sont énon­cées ou en les modi­fi­ant, lorsqu’il exi­ste des preu­ves con­crè­tes et fia­bles de l’e­xi­stence de systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on de l’an­ne­xe III, mais ne pré­sen­tant pas de ris­que signi­fi­ca­tif pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux des per­son­nes physiques.

7. La Com­mis­si­on peut adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier le para­gra­phe 3, deu­xiè­me ali­néa, du pré­sent artic­le en sup­p­ri­mant l’u­ne quel­con­que des con­di­ti­ons qui y sont énon­cées, s’il exi­ste des preu­ves con­crè­tes et fia­bles que cela est néces­saire pour main­te­nir le niveau de pro­tec­tion de la san­té, de la sécu­ri­té et des droits fon­da­men­taux pré­vu par le pré­sent règlement.

8. Tou­te modi­fi­ca­ti­on des con­di­ti­ons énon­cées au para­gra­phe 3, deu­xiè­me ali­néa, adop­tée con­for­mé­ment aux para­gra­phes 6 et 7 du pré­sent artic­le ne réduit pas le niveau géné­ral de pro­tec­tion de la san­té, de la sécu­ri­té et des droits fon­da­men­taux assu­ré par le pré­sent règle­ment, assu­re la cohé­rence avec les actes délé­gués adop­tés en ver­tu de l’ar­tic­le 7, para­gra­phe 1, et tient comp­te de l’é­vo­lu­ti­on des mar­chés et des technologies.

(63) Le fait qu’un système d’in­tel­li­gence arti­fi­ci­el­le soit clas­sé com­me système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que en ver­tu du pré­sent règle­ment ne doit pas être inter­pré­té com­me une indi­ca­ti­on que l’uti­li­sa­ti­on du système est léga­le en ver­tu d’aut­res actes du droit de l’U­ni­on ou du droit natio­nal com­pa­ti­ble avec le droit de l’U­ni­on, tels que la pro­tec­tion des don­nées à carac­tère per­son­nel, l’uti­li­sa­ti­on de poly­gra­phes et d’ou­tils simi­lai­res ou d’aut­res systè­mes de détec­tion de l’é­tat émo­ti­on­nel de per­son­nes phy­si­ques. Tou­te uti­li­sa­ti­on de ce type doit con­tin­uer à se fai­re uni­quement en con­for­mi­té avec les exi­gen­ces appli­ca­bles décou­lant de la Char­te et des actes appli­ca­bles du droit second­ai­re de l’U­ni­on et du droit natio­nal. Le pré­sent règle­ment ne doit pas être con­sidé­ré com­me four­nis­sant une base juri­di­que pour le trai­te­ment des don­nées à carac­tère per­son­nel, y com­pris les caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel, le cas échéant, à moins qu’il n’en soit spé­ci­fi­quement dis­po­sé autre­ment dans le pré­sent règlement.

Artic­le 7 Amen­de­ments à l’an­ne­xe III

1. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 afin de modi­fier l’an­ne­xe III en y ajoutant ou en y modi­fi­ant des cas d’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que lorsque les deux con­di­ti­ons sui­van­tes sont remplies :

(a) les systè­mes AI sont desti­nés à être uti­li­sés dans l’un des domain­es énu­mé­rés à l’an­ne­xe III ;

(b) les systè­mes d’IA posent un ris­que de pré­ju­di­ce pour la san­té et la sécu­ri­té, ou un impact négatif

sur les droits fon­da­men­taux, et que ce ris­que est équi­va­lent ou supé­ri­eur au ris­que de pré­ju­di­ce ou d’im­pact néga­tif posé par les systè­mes d’IA à haut ris­que déjà men­ti­onnés à l’an­ne­xe III.

2. Lorsqu’el­le éva­lue la con­di­ti­on visée au para­gra­phe 1, point b), la Com­mis­si­on tient comp­te des critères suivants :

(a) l’ob­jec­tif pré­vu du système AI ;

(b) la mesu­re dans laquel­le un système d’IA a été uti­li­sé ou est sus­cep­ti­ble de l’être ;

(c) la natu­re et la quan­ti­té de don­nées trai­tées et uti­li­sées par le système IA, en par­ti­cu­lier si des caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel sont traitées ;

(d) la mesu­re dans laquel­le le système IA agit de maniè­re auto­no­me et la pos­si­bi­li­té pour un être humain de pas­ser out­re une décis­i­on ou des recom­man­da­ti­ons qui pour­rai­ent ent­raî­ner un pré­ju­di­ce potentiel ;

(e) la mesu­re dans laquel­le l’uti­li­sa­ti­on d’un système IA a déjà causé des dom­mages à la san­té et à la sécu­ri­té, a eu un impact néga­tif sur les droits fon­da­men­taux ou a sus­ci­té des pré­oc­cu­pa­ti­ons importan­tes quant à la pro­ba­bi­li­té de tels dom­mages ou impacts néga­tifs, com­me démon­tré, par exemp­le, par des rap­ports ou des allé­ga­ti­ons docu­men­tées sou­mis aux auto­ri­tés natio­na­les com­pé­ten­tes ou par d’aut­res rap­ports, selon le cas ;

(f) l’am­pleur poten­ti­el­le de ce dom­mage ou de cet effet néfa­ste, en par­ti­cu­lier en ce qui con­cer­ne son inten­si­té et sa capa­ci­té à affec­ter de mul­ti­ples per­son­nes ou à affec­ter de maniè­re dis­pro­por­ti­onnée un grou­pe par­ti­cu­lier de personnes ;

(g) la mesu­re dans laquel­le les per­son­nes qui sont poten­ti­el­le­ment lésées ou qui subis­sent un impact néga­tif dépen­dent du résul­tat pro­duit par un système IA, en par­ti­cu­lier par­ce que, pour des rai­sons pra­ti­ques ou juri­di­ques, il n’est pas rai­sonnablem­ent pos­si­ble de se sous­trai­re à ce résultat ;

(h) la mesu­re dans laquel­le il y a un désé­qui­lib­re de pou­voir, ou les per­son­nes qui sont poten­ti­el­le­ment lésées ou qui subis­sent un impact néga­tif sont en posi­ti­on de vul­né­ra­bi­li­té par rap­port à la per­son­ne qui déploie un système IA, notam­ment en rai­son de leur sta­tut, de leur auto­ri­té, de leurs con­nais­sances, de leur situa­ti­on éco­no­mi­que ou socia­le, ou de leur âge ;

(i) la mesu­re dans laquel­le le résul­tat pro­duit par un système IA est aisé­ment cor­ri­gi­ble ou réver­si­ble, comp­te tenu des solu­ti­ons tech­ni­ques dis­po­ni­bles pour le cor­ri­ger ou l’in­ver­ser, les résul­tats ayant un impact néga­tif sur la san­té, la sécu­ri­té ou les droits fon­da­men­taux ne devant pas être con­sidé­rés com­me aisé­ment cor­ri­gi­bles ou réversibles ;

(j) l’am­pleur et la pro­ba­bi­li­té des avan­ta­ges du déploie­ment du système IA pour les indi­vi­dus, les grou­pes ou la socié­té en géné­ral, y com­pris les amé­lio­ra­ti­ons pos­si­bles de la sécu­ri­té des produits ;

(k) dans la mesu­re où la légis­la­ti­on exi­stan­te de l’U­ni­on le permet :

(i) des mesu­res de répa­ra­ti­on effi­caces en ce qui con­cer­ne les ris­ques posés par un système d’in­tel­li­gence arti­fi­ci­el­le, à l’ex­clu­si­on des deman­des de dom­mages et intérêts ;

(ii) des mesu­res effi­caces pour pré­ve­nir ou mini­mi­ser sub­stan­ti­el­le­ment ces risques.

3. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 afin de modi­fier la liste figu­rant à l’an­ne­xe III en sup­p­ri­mant les systè­mes d’IA à haut ris­que lorsque les deux con­di­ti­ons sui­van­tes sont remplies :

(a) le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­cer­né ne pré­sen­te plus de ris­ques signi­fi­ca­tifs pour les droits fon­da­men­taux, la san­té ou la sécu­ri­té, comp­te tenu des critères énu­mé­rés au para­gra­phe 2 ;

(b) la sup­pres­si­on ne dimi­n­ue pas le niveau géné­ral de pro­tec­tion de la san­té, de la sécu­ri­té et des droits fon­da­men­taux en ver­tu du droit de l’Union.

Sec­tion 2 Exi­gen­ces pour les systè­mes d’IA à haut risque

(66) Les exi­gen­ces doi­vent s’ap­pli­quer aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que en ce qui con­cer­ne la gesti­on des ris­ques, la qua­li­té et la per­ti­nence des ensem­bles de don­nées uti­li­sés, la docu­men­ta­ti­on tech­ni­que et la tenue des dos­siers, la trans­pa­rence et la four­ni­tu­re d’in­for­ma­ti­ons aux déployeurs, la sur­veil­lan­ce humaine, ain­si que la robust­es­se, la pré­cis­i­on et la cyber­sé­cu­ri­té. Ces exi­gen­ces sont néces­saires pour atté­nuer effi­ca­ce­ment les ris­ques pour la san­té, la sécu­ri­té et les droits fon­da­men­taux. Com­me aucu­ne aut­re mesu­re moins rest­ric­ti­ve pour le com­mer­ce n’est rai­sonnablem­ent dis­po­ni­ble, ces exi­gen­ces ne con­sti­tu­ent pas des rest­ric­tions inju­sti­fi­ées au commerce.

Artic­le 8 Con­for­mi­té aux exigences

1. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être con­for­mes aux exi­gen­ces énon­cées dans la pré­sen­te sec­tion, en tenant comp­te de leur fina­li­té ain­si que de l’é­tat de l’art géné­ra­le­ment recon­nu en matiè­re d’in­tel­li­gence arti­fi­ci­el­le et de tech­no­lo­gies liées à l’in­tel­li­gence arti­fi­ci­el­le. Le système de gesti­on des ris­ques visé à l’ar­tic­le 9 doit être pris en comp­te pour assurer la con­for­mi­té avec ces exigences.

2. Lorsqu’un pro­duit con­ti­ent un système IA auquel s’ap­pli­quent les exi­gen­ces du pré­sent règle­ment ain­si que les exi­gen­ces de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rées à la sec­tion A de l’an­ne­xe I, les four­nis­seurs sont tenus de veil­ler à ce que leur pro­duit soit plei­ne­ment con­for­me à tou­tes les exi­gen­ces appli­ca­bles en ver­tu de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on appli­ca­ble. Pour assurer la con­for­mi­té des systè­mes d’au­then­ti­fi­ca­ti­on à haut ris­que visés au para­gra­phe 1 avec les exi­gen­ces énon­cées dans la pré­sen­te sec­tion et pour garan­tir la cohé­rence, évi­ter les dou­bles emplois et rédui­re au mini­mum les char­ges sup­p­lé­men­tai­res, les four­nis­seurs ont le choix d’in­té­grer, le cas échéant, les pro­ce­s­sus de test et de rap­port, les infor­ma­ti­ons et la docu­men­ta­ti­on néces­saires qu’ils four­nis­sent en ce qui con­cer­ne leur pro­duit dans la docu­men­ta­ti­on et les pro­cé­du­res qui exi­stent déjà et qui sont requi­ses par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on visée à la sec­tion A de l’an­ne­xe I.

(64) Afin d’at­té­nuer les ris­ques liés aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que mis sur le mar­ché ou en ser­vice et d’assurer un niveau éle­vé de fia­bi­li­té, cer­tai­nes exi­gen­ces obli­ga­toires doi­vent être appli­quées aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, en tenant comp­te de l’ob­jec­tif visé et du con­tex­te d’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le et con­for­mé­ment au système de gesti­on des ris­ques à mett­re en place par le four­nis­seur. Les mesu­res adop­tées par les pre­sta­tai­res pour se con­for­mer aux exi­gen­ces obli­ga­toires du pré­sent règle­ment doi­vent tenir comp­te de l’é­tat de l’art géné­ra­le­ment recon­nu en matiè­re d’IA, être pro­por­ti­onnées et effi­caces pour att­eind­re les objec­tifs du pré­sent règle­ment. Sur la base du nou­veau cad­re légis­la­tif, tel que cla­ri­fié dans la com­mu­ni­ca­ti­on de la Com­mis­si­on inti­tulée “Le gui­de bleu sur la mise en œuvre des règles de l’UE rela­ti­ves aux pro­duits 2022”, la règ­le géné­ra­le est que plus d’un acte juri­di­que d’har­mo­ni­sa­ti­on de l’U­ni­on peut être appli­ca­ble à un pro­duit, car la mise à dis­po­si­ti­on ou la mise en ser­vice du pro­duit ne peut avoir lieu que si le pro­duit est con­for­me à tou­tes les légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on appli­ca­bles. Les ris­ques des systè­mes d’in­tel­li­gence arti­fi­ci­el­le cou­verts par les exi­gen­ces de ce règle­ment con­cer­nent des aspects dif­fér­ents de ceux de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on exi­stan­te et, par con­sé­quent, les exi­gen­ces de ce règle­ment com­plé­terai­ent le corps de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on exi­stan­te. Par exemp­le, les pro­duits de machi­nes ou de dis­po­si­tifs médi­caux inté­grant un système d’in­tel­li­gence arti­fi­ci­el­le pour­rai­ent pré­sen­ter des ris­ques qui ne sont pas abor­dés par les exi­gen­ces essen­ti­el­les de san­té et de sécu­ri­té énon­cées dans la légis­la­ti­on har­mo­ni­sée de l’U­ni­on per­ti­nen­te, car cet­te légis­la­ti­on sec­to­ri­el­le ne trai­te pas des ris­ques spé­ci­fi­ques aux systè­mes d’in­tel­li­gence artificielle.

Cela appel­le à une appli­ca­ti­on simul­ta­née et com­plé­men­tai­re des dif­fér­ents actes légis­la­tifs. Afin d’assurer la cohé­rence et d’é­vi­ter une char­ge admi­ni­stra­ti­ve et des coûts inu­tiles, les four­nis­seurs d’un pro­duit con­tenant un ou plu­sieurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, aux­quels s’ap­pli­quent les exi­gen­ces du pré­sent règle­ment et de la légis­la­ti­on har­mo­ni­sée de l’U­ni­on basée sur le nou­veau cad­re légis­la­tif et énu­mé­rée dans une anne­xe au pré­sent règle­ment, dev­rai­ent dis­po­ser d’u­ne cer­taine fle­xi­bi­li­té en ce qui con­cer­ne les décis­i­ons opé­ra­ti­on­nel­les sur la maniè­re d’assurer la con­for­mi­té d’un pro­duit con­tenant un ou plu­sieurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le avec tou­tes les exi­gen­ces appli­ca­bles de cet­te légis­la­ti­on har­mo­ni­sée de l’U­ni­on, de maniè­re opti­ma­le. Cet­te fle­xi­bi­li­té pour­rait signi­fier, par exemp­le, une décis­i­on du four­nis­seur d’in­té­grer une par­tie des pro­ce­s­sus de test et de rap­port, des infor­ma­ti­ons et de la docu­men­ta­ti­on néces­saires au tit­re du pré­sent règle­ment dans la docu­men­ta­ti­on et les pro­cé­du­res déjà requi­ses au tit­re de la légis­la­ti­on har­mo­ni­sée exi­stan­te de l’U­ni­on basée sur le nou­veau cad­re légis­la­tif et énu­mé­rée dans une anne­xe au pré­sent règle­ment. Cela ne doit en aucun cas por­ter att­ein­te à l’ob­li­ga­ti­on du pre­sta­tai­re de se con­for­mer à tou­tes les exi­gen­ces applicables.

Artic­le 9 Système de gesti­on des risques

1. Un système de gesti­on des ris­ques doit être éta­b­li, mis en œuvre, docu­men­té et main­te­nu en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut risque.

2. Le système de gesti­on des ris­ques doit être con­sidé­ré com­me un pro­ce­s­sus ité­ra­tif con­tinu pla­ni­fié et exé­cu­té tout au long du cycle de vie d’un système d’assu­rance à haut ris­que, néces­si­tant une révi­si­on et une mise à jour sys­té­ma­ti­ques régu­liè­res. Il doit com­prend­re les étapes suivantes :

(a) l’i­den­ti­fi­ca­ti­on et l’ana­ly­se des ris­ques con­nus et rai­sonnablem­ent pré­vi­si­bles que le système IA à haut ris­que peut poser pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux lorsque le système IA à haut ris­que est uti­li­sé con­for­mé­ment à son objectif ;

(b) l’e­sti­ma­ti­on et l’éva­lua­ti­on des ris­ques qui peu­vent sur­ve­nir lorsque le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que est uti­li­sé con­for­mé­ment à son objec­tif, et dans des con­di­ti­ons de mau­vai­se uti­li­sa­ti­on rai­sonnablem­ent prévisibles ;

(c) l’éva­lua­ti­on d’aut­res ris­ques éven­tuels, sur la base de l’ana­ly­se des don­nées recu­eil­lies dans le cad­re du système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on visé à l’ar­tic­le 72 ;

(d) l’ad­op­ti­on de mesu­res de gesti­on des ris­ques appro­priées et ciblées, con­çues pour trai­ter les ris­ques iden­ti­fi­és con­for­mé­ment au point (a).

3. Les ris­ques men­ti­onnés dans le pré­sent artic­le ne con­cer­nent que ceux qui peu­vent être rai­sonnablem­ent atté­nués ou éli­mi­nés par le déve­lo­p­pe­ment ou la con­cep­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, ou par la four­ni­tu­re d’in­for­ma­ti­ons tech­ni­ques adéquates.

4. Les mesu­res de gesti­on des ris­ques visées au para­gra­phe 2, point (d), tien­nent dûment comp­te des effets et des inter­ac­tions pos­si­bles résul­tant de l’ap­pli­ca­ti­on com­bi­née des exi­gen­ces énon­cées dans la pré­sen­te sec­tion, dans le but de rédui­re les ris­ques de maniè­re plus effi­cace tout en réa­li­sant un équi­lib­re appro­prié dans la mise en œuvre des mesu­res visa­nt à satis­fai­re à ces exigences.

5. Les mesu­res de gesti­on des ris­ques men­ti­onnées au para­gra­phe 2, point (d), doi­vent être tel­les que le ris­que rési­du­el per­ti­nent asso­cié à chaque dan­ger, ain­si que le ris­que rési­du­el glo­bal des systè­mes IA à haut ris­que, soi­ent jugés acceptables.

En iden­ti­fi­ant les mesu­res de gesti­on des ris­ques les plus appro­priées, il con­vi­ent d’assurer ce qui suit :

(a) l’é­li­mi­na­ti­on ou la réduc­tion des ris­ques iden­ti­fi­és et éva­lués con­for­mé­ment au para­gra­phe 2 dans la mesu­re où cela est tech­ni­quement pos­si­ble grâ­ce à une con­cep­ti­on et à un déve­lo­p­pe­ment appro­priés du système d’IA à haut risque ;

(b) le cas échéant, la mise en œuvre de mesu­res d’at­té­nua­ti­on et de con­trô­le appro­priées pour trai­ter les ris­ques qui ne peu­vent être éliminés ;

(c) la four­ni­tu­re des infor­ma­ti­ons requi­ses en ver­tu de l’ar­tic­le 13 et, le cas échéant, la for­ma­ti­on des per­son­nes déployées.

With a view to eli­mi­na­te or redu­cing risks rela­ted to the use of the high-risk AI system, due con­side­ra­ti­on shall be given to the tech­ni­cal know­ledge, expe­ri­ence, edu­ca­ti­on, the trai­ning to be expec­ted from the deployer, and the pre­su­ma­ble con­text in which the system is inten­ded to be used.

6. Les systè­mes d’IA à haut ris­que doi­vent être testés dans le but d’i­den­ti­fier les mesu­res de gesti­on des ris­ques les plus appro­priées et les plus ciblées. Les tests doi­vent garan­tir que les systè­mes d’IA à haut ris­que fonc­tion­nent de maniè­re cohé­ren­te pour l’u­sa­ge auquel ils sont desti­nés et qu’ils sont con­for­mes aux exi­gen­ces énon­cées dans la pré­sen­te section.

7. Les pro­cé­du­res d’es­sai peu­vent inclu­re des essais en con­di­ti­ons réel­les con­for­mé­ment à l’ar­tic­le 60.

8. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être testés, le cas échéant, à tout moment au cours du pro­ce­s­sus de déve­lo­p­pe­ment et, en tout état de cau­se, avant leur mise sur le mar­ché ou leur mise en ser­vice. Les tests doi­vent être effec­tués par rap­port à des mesu­res pré­dé­fi­nies et à des seuils pro­ba­bi­li­stes appro­priés à l’u­sa­ge pré­vu du système d’in­tel­li­gence arti­fi­ci­el­le à haut risque.

9. Lors de la mise en œuvre du système de gesti­on des ris­ques pré­vu aux para­gra­phes 1 à 7, les pre­sta­tai­res tien­nent comp­te de la que­sti­on de savoir si, comp­te tenu de son objec­tif, le système d’assu­rance à haut ris­que est sus­cep­ti­ble d’a­voir un impact néga­tif sur les per­son­nes âgées de moins de 18 ans et, le cas échéant, sur d’aut­res grou­pes vulnérables.

10. Pour les four­nis­seurs de systè­mes d’in­for­ma­ti­on sur les ris­ques éle­vés qui sont sou­mis à des exi­gen­ces con­cer­nant les pro­ce­s­sus inter­nes de gesti­on des ris­ques en ver­tu d’aut­res dis­po­si­ti­ons per­ti­nen­tes de la légis­la­ti­on de l’U­ni­on, les aspects pré­vus aux para­gra­phes 1 à 9 peu­vent fai­re par­tie des pro­cé­du­res de gesti­on des ris­ques éta­b­lies en ver­tu de cet­te légis­la­ti­on ou être com­bi­nés avec elles.

(65) Le système de gesti­on des ris­ques dev­rait con­si­ster en un pro­ce­s­sus con­tinu et ité­ra­tif qui est pla­ni­fié et exé­cu­té tout au long du cycle de vie d’un système IA à haut ris­que. Ce pro­ce­s­sus dev­rait viser à iden­ti­fier et à atté­nuer les ris­ques per­tin­ents des systè­mes d’IA pour la san­té, la sécu­ri­té et les droits fon­da­men­taux. Le système de gesti­on des ris­ques dev­rait être régu­liè­re­ment revu et mis à jour afin d’assurer son effi­ca­ci­té con­ti­n­ue, ain­si que la justi­fi­ca­ti­on et la docu­men­ta­ti­on de tou­tes les décis­i­ons et actions importan­tes pri­ses en ver­tu du pré­sent règle­ment. Ce pro­ce­s­sus doit garan­tir que le four­nis­seur iden­ti­fie les ris­ques ou les effets néga­tifs et met en œuvre des mesu­res d’at­té­nua­ti­on pour les ris­ques con­nus et pré­vi­si­bles que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le font peser sur la san­té, la sécu­ri­té et les droits fon­da­men­taux, comp­te tenu de l’u­sa­ge pré­vu et de l’a­bus pré­vi­si­ble, y com­pris les ris­ques éven­tuels résul­tant de l’in­ter­ac­tion ent­re le système d’in­tel­li­gence arti­fi­ci­el­le et l’en­vi­ron­ne­ment dans lequel il opè­re. Le système de gesti­on des ris­ques dev­rait adop­ter les mesu­res de gesti­on des ris­ques les plus appro­priées à la lumiè­re de l’é­tat de l’art en matiè­re d’IA. Lors de l’i­den­ti­fi­ca­ti­on des mesu­res de gesti­on des ris­ques les plus appro­priées, le four­nis­seur doit docu­men­ter et expli­quer les choix effec­tués et, le cas échéant, fai­re appel à des experts et à des par­ties pren­an­tes exter­nes. Dans l’i­den­ti­fi­ca­ti­on de l’uti­li­sa­ti­on abu­si­ve rai­sonnablem­ent pré­vi­si­ble de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, le four­nis­seur dev­rait cou­vr­ir les uti­li­sa­ti­ons de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui, bien qu’el­les ne soi­ent pas direc­te­ment cou­ver­tes par l’ob­jec­tif visé et pré­vues dans les ins­truc­tions d’uti­li­sa­ti­on, peu­vent néan­mo­ins être rai­sonnablem­ent atten­dues com­me résul­tant d’un com­porte­ment humain rai­sonnablem­ent pré­vi­si­ble dans le con­tex­te des carac­té­ri­sti­ques et de l’uti­li­sa­ti­on spé­ci­fi­ques d’un système d’in­tel­li­gence arti­fi­ci­el­le particulier.

Tou­tes les cir­con­stances con­nues ou pré­vi­si­bles rela­ti­ves à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment à sa fina­li­té ou dans des con­di­ti­ons de mau­vai­se uti­li­sa­ti­on rai­sonnablem­ent pré­vi­si­bles, qui pour­rai­ent ent­raî­ner des ris­ques pour la san­té et la sécu­ri­té ou les droits fon­da­men­taux, doi­vent être inclu­ses dans les ins­truc­tions d’uti­li­sa­ti­on four­nies par le four­nis­seur. Ceci afin de s’assurer que le déployeur en est con­sci­ent et en tient comp­te lorsqu’il uti­li­se le système IA à haut ris­que. L’i­den­ti­fi­ca­ti­on et la mise en œuvre de mesu­res d’at­té­nua­ti­on des ris­ques en cas d’uti­li­sa­ti­on abu­si­ve pré­vi­si­ble au tit­re du pré­sent règle­ment ne dev­rai­ent pas néces­si­ter de for­ma­ti­on spé­ci­fi­que sup­p­lé­men­tai­re pour le système d’IA à haut ris­que de la part du four­nis­seur afin de fai­re face à une uti­li­sa­ti­on abu­si­ve pré­vi­si­ble. Les pre­sta­tai­res sont tou­te­fois encou­ra­gés à envi­sa­ger de tel­les mesu­res de for­ma­ti­on sup­p­lé­men­tai­res afin d’at­té­nuer les abus pré­vi­si­bles rai­sonn­ables si cela s’a­vè­re néces­saire et approprié.

Artic­le 10 Don­nées et gou­ver­nan­ce des données

1. Les systè­mes d’IA à haut ris­que qui font appel à des tech­ni­ques impli­quant l’en­traî­ne­ment de modè­les d’IA avec des don­nées doi­vent être déve­lo­p­pés sur la base d’un ent­raî­ne­ment, d’u­ne vali­da­ti­on et de tests d’en­sem­bles de don­nées qui satis­font aux critères de qua­li­té men­ti­onnés aux para­gra­phes 2 à 5 chaque fois que de tels ensem­bles de don­nées sont utilisés.

2. La for­ma­ti­on, la vali­da­ti­on et le test des ensem­bles de don­nées doi­vent être sou­mis à des pra­ti­ques de gou­ver­nan­ce et de gesti­on des don­nées adap­tées à l’ob­jec­tif du système d’IA à haut ris­que. Ces pra­ti­ques doi­vent con­cer­ner en particulier

(a) les choix de con­cep­ti­on pertinents ;

(b) les pro­ce­s­sus de coll­ec­te de don­nées et l’o­ri­gi­ne des don­nées, et dans le cas de don­nées per­son­nel­les, le but initi­al de la coll­ec­te de données ;

(c) les opé­ra­ti­ons de trai­te­ment de la pré­pa­ra­ti­on des don­nées per­ti­nen­tes, tel­les que l’an­no­ta­ti­on, l’é­ti­que­ta­ge, le net­to­ya­ge, la mise à jour, l’en­ri­chis­se­ment et l’agrégation ;

(d) la for­mu­la­ti­on d’hy­po­thè­ses, notam­ment en ce qui con­cer­ne les infor­ma­ti­ons que les don­nées sont cen­sées mesurer et représenter ;

(e) une éva­lua­ti­on de la dis­po­ni­bi­li­té, de la quan­ti­té et de l’a­dé­qua­ti­on des ensem­bles de don­nées nécessaires ;

(f) l’ex­amen des biais éven­tuels sus­cep­ti­bles d’af­fec­ter la san­té et la sécu­ri­té des per­son­nes, d’a­voir un impact néga­tif sur les droits fon­da­men­taux ou de con­dui­re à des dis­cri­mi­na­ti­ons inter­di­tes par le droit de l’U­ni­on, en par­ti­cu­lier lorsque les don­nées pro­dui­tes influen­cent les intrants des opé­ra­ti­ons futures ;

(g) des mesu­res appro­priées pour détec­ter, pré­ve­nir et atté­nuer les éven­tuels biais iden­ti­fi­és con­for­mé­ment au point (f) ;

(h) l’i­den­ti­fi­ca­ti­on des lacu­nes ou des omis­si­ons per­ti­nen­tes en matiè­re de don­nées qui empêchent le respect du pré­sent règle­ment, et la maniè­re dont ces lacu­nes et omis­si­ons peu­vent être comblées.

3. Les ensem­bles de don­nées de for­ma­ti­on, de vali­da­ti­on et de test doi­vent être per­tin­ents, suf­fi­sam­ment repré­sen­ta­tifs et, dans la mesu­re du pos­si­ble, exempts d’err­eurs et com­plets comp­te tenu de l’ob­jec­tif pour­suivi. Ils doi­vent avoir les pro­prié­tés sta­ti­sti­ques appro­priées, y com­pris, le cas échéant, en ce qui con­cer­ne les per­son­nes ou les grou­pes de per­son­nes par rap­port aux­quels le système d’IA à haut ris­que est desti­né à être uti­li­sé. Ces carac­té­ri­sti­ques des ensem­bles de don­nées peu­vent être respec­tées au niveau des ensem­bles de don­nées indi­vi­du­els ou au niveau d’u­ne com­bi­nai­son de ceux-ci.

(68) Pour le déve­lo­p­pe­ment et l’éva­lua­ti­on de systè­mes d’IA à haut ris­que, cer­ta­ins acteurs, tels que les four­nis­seurs, les orga­nis­mes noti­fi­és et d’aut­res enti­tés per­ti­nen­tes, tel­les que les cen­tres euro­pé­ens d’in­no­va­ti­on numé­ri­que, les instal­la­ti­ons d’expé­ri­men­ta­ti­on et les cher­cheurs, dev­rai­ent pou­voir accé­der à des ensem­bles de don­nées de hau­te qua­li­té et les uti­li­ser dans les domain­es d’ac­ti­vi­té de ces acteurs qui sont liés au pré­sent règle­ment. Les espaces euro­pé­ens com­muns de don­nées étab­lis par la Com­mis­si­on et la faci­li­ta­ti­on du par­ta­ge de don­nées ent­re les ent­re­pri­ses et avec le gou­ver­ne­ment dans l’in­té­rêt public seront des instru­ments per­met­tant de four­nir un accès fia­ble, responsable et non dis­cri­mi­na­toire à des don­nées de qua­li­té pour la for­ma­ti­on, la vali­da­ti­on et le test des systè­mes d’IA. Par exemp­le, dans le domaine de la san­té, l’e­space euro­pé­en des don­nées de san­té faci­li­te­ra l’ac­cès non dis­cri­mi­na­toire aux don­nées de san­té et l’en­traî­ne­ment des algo­rith­mes d’IA sur ces ensem­bles de don­nées, d’u­ne maniè­re pri­vée, sécu­ri­sée, oppor­tu­ne, trans­pa­ren­te et fia­ble, et avec une gou­ver­nan­ce insti­tu­ti­on­nel­le appro­priée. Les auto­ri­tés com­pé­ten­tes con­cer­nées, y com­pris les auto­ri­tés sec­to­ri­el­les, qui four­nis­sent ou sou­ti­en­nent l’ac­cès aux don­nées, peu­vent éga­le­ment sou­te­nir la four­ni­tu­re de don­nées de qua­li­té pour la for­ma­ti­on, la vali­da­ti­on et le test des systè­mes d’IA.

4. Les ensem­bles de don­nées doi­vent tenir comp­te, dans la mesu­re requi­se par l’ob­jec­tif visé, des carac­té­ri­sti­ques ou des élé­ments qui sont par­ti­cu­liers au con­tex­te géo­gra­phi­que, con­tex­tu­el, com­porte­men­tal ou fonc­tion­nel spé­ci­fi­que dans lequel le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que est desti­né à être utilisé.

5. Dans la mesu­re où cela est stric­te­ment néces­saire pour assurer la détec­tion et la cor­rec­tion des biais liés aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment au para­gra­phe (2), points (f) et (g), du pré­sent artic­le, les four­nis­seurs de ces systè­mes peu­vent trai­ter de maniè­re excep­ti­on­nel­le des caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés fon­da­men­taux des per­son­nes phy­si­ques. Out­re les dis­po­si­ti­ons pré­vues par les règle­ments (UE) 2016/679 et (UE) 2018/1725 et la direc­ti­ve (UE) 2016/680, tou­tes les con­di­ti­ons sui­van­tes doi­vent être rem­plies pour qu’un tel trai­te­ment pui­s­se avoir lieu :

(a) la détec­tion et la cor­rec­tion des biais ne peu­vent pas être satis­fai­tes effi­ca­ce­ment par le trai­te­ment d’aut­res don­nées, y com­pris des don­nées syn­thé­ti­ques ou anonymes ;

(b) les caté­go­ries spé­cia­les de don­nées per­son­nel­les sont sou­mi­ses à des limi­ta­ti­ons tech­ni­ques sur la réuti­li­sa­ti­on des don­nées per­son­nel­les, et à des mesu­res de sécu­ri­té et de con­fi­den­tia­li­té de poin­te, y com­pris la pseudonymisation ;

(c) les caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel sont sou­mi­ses à des mesu­res visa­nt à garan­tir que les don­nées à carac­tère per­son­nel trai­tées sont sécu­ri­sées, pro­té­gées, sou­mi­ses à des garan­ties appro­priées, y com­pris des con­trô­les stricts et la docu­men­ta­ti­on de l’ac­cès, afin d’é­vi­ter tou­te uti­li­sa­ti­on abu­si­ve et de veil­ler à ce que seu­les les per­son­nes auto­ri­sées aient accès à ces don­nées à carac­tère per­son­nel avec des obli­ga­ti­ons de con­fi­den­tia­li­té appropriées ;

(d) les caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel ne doi­vent pas être trans­mi­ses, trans­fé­rées ou autre­ment acce­s­si­bles à d’aut­res parties ;

(e) les caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel sont sup­p­ri­mées dès que le biais a été cor­ri­gé ou que les don­nées à carac­tère per­son­nel ont att­eint la fin de leur péri­ode de con­ser­va­ti­on, selon ce qui vient en premier ;

(f) les regi­stres des acti­vi­tés de trai­te­ment con­for­mé­ment aux règle­ments (UE) 2016/679 et (UE) 2018/1725 et à la direc­ti­ve (UE) 2016/680 inclu­ent les rai­sons pour les­quel­les le trai­te­ment de caté­go­ries spé­cia­les de don­nées à carac­tère per­son­nel était stric­te­ment néces­saire pour détec­ter et cor­ri­ger les biais, et pour­quoi cet objec­tif n’a pas pu être att­eint en trai­tant d’aut­res données.

(69) Le droit à la vie pri­vée et à la pro­tec­tion des don­nées à carac­tère per­son­nel doit être garan­ti tout au long du cycle de vie du système d’in­tel­li­gence arti­fi­ci­el­le. cet égard, les prin­cipes de mini­mi­sa­ti­on des don­nées et de pro­tec­tion des don­nées dès la con­cep­ti­on et par défaut, tels que défi­nis par la légis­la­ti­on de l’U­ni­on euro­pé­en­ne en matiè­re de pro­tec­tion des don­nées, sont appli­ca­bles lors du trai­te­ment des don­nées à carac­tère per­son­nel. Les mesu­res pri­ses par les four­nis­seurs pour assurer la con­for­mi­té avec ces prin­cipes peu­vent inclu­re non seu­le­ment l’an­ony­mi­sa­ti­on et le cryp­ta­ge, mais aus­si l’uti­li­sa­ti­on de tech­no­lo­gies qui per­met­tent aux algo­rith­mes d’êt­re appli­qués aux don­nées et qui per­met­tent l’en­traî­ne­ment des systè­mes d’IA sans trans­mis­si­on ent­re par­ties ou copie des don­nées brutes ou struc­tu­rées elles-mêmes, sans pré­ju­di­ce des exi­gen­ces en matiè­re de gou­ver­nan­ce des don­nées pré­vues par le pré­sent règlement.

(70) Afin de pro­té­ger le droit d’au­trui cont­re la dis­cri­mi­na­ti­on qui pour­rait résul­ter des biais des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, les four­nis­seurs dev­rai­ent, excep­ti­on­nel­le­ment, dans la mesu­re où cela est stric­te­ment néces­saire aux fins de la détec­tion et de la cor­rec­tion des biais en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, sub­ject to appro­pria­te safe­guards for the fun­da­men­tal rights and free­doms of natu­ral per­sons and fol­lo­wing the appli­ca­ti­on of all appli­ca­ble con­di­ti­ons laid down under this Regu­la­ti­on in addi­ti­on to the con­di­ti­ons laid down in Regu­la­ti­ons (EU) 2016/679 and (EU) 2018/1725 and Direc­ti­ve (EU) 2016/680, be able to pro­cess also spe­cial cate­go­ries of per­so­nal data, as a mat­ter of sub­stan­ti­al public inte­rest within the mea­ning of Artic­le 9(2), point (g) of Regu­la­ti­on (EU) 2016/679 and Artic­le 10(2), point (g) of Regu­la­ti­on (EU) 2018/1725.

6. Pour le déve­lo­p­pe­ment de systè­mes d’IA à haut ris­que n’uti­li­sant pas de tech­ni­ques impli­quant l’en­traî­ne­ment de modè­les d’IA, les para­gra­phes 2 à 5 ne s’ap­pli­quent qu’aux ensem­bles de don­nées de test.

(67) Des don­nées de hau­te qua­li­té et l’ac­cès à des don­nées de hau­te qua­li­té jouent un rôle essen­tiel dans la four­ni­tu­re d’u­ne struc­tu­re et dans la garan­tie de la per­for­mance de nombreux systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier lorsque des tech­ni­ques impli­quant l’en­traî­ne­ment de modè­les sont uti­li­sées, dans le but d’assurer que le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que fonc­tion­ne com­me pré­vu et de maniè­re sûre et qu’il ne devi­en­ne pas une source de dis­cri­mi­na­ti­on inter­di­te par le droit de l’U­ni­on. Des ensem­bles de don­nées de hau­te qua­li­té pour la for­ma­ti­on, la vali­da­ti­on et les tests néces­si­tent la mise en œuvre de pra­ti­ques appro­priées de gou­ver­nan­ce et de gesti­on des don­nées. Les ensem­bles de don­nées pour la for­ma­ti­on, la vali­da­ti­on et les tests, y com­pris les éti­quet­tes, doi­vent être per­tin­ents, suf­fi­sam­ment repré­sen­ta­tifs et, dans la mesu­re du pos­si­ble, exempts d’err­eurs et com­plets comp­te tenu de l’ob­jec­tif visé par le système. Afin de faci­li­ter la con­for­mi­té avec la légis­la­ti­on de l’U­ni­on en matiè­re de pro­tec­tion des don­nées, tel­le que le règle­ment (UE) 2016/679, les pra­ti­ques de gou­ver­nan­ce et de gesti­on des don­nées dev­rai­ent inclu­re, dans le cas des don­nées per­son­nel­les, la trans­pa­rence quant à l’ob­jec­tif initi­al de la coll­ec­te des don­nées. Les ensem­bles de don­nées dev­rai­ent éga­le­ment avoir les pro­prié­tés sta­ti­sti­ques appro­priées, y com­pris en ce qui con­cer­ne les per­son­nes ou les grou­pes de per­son­nes en rela­ti­on avec les­quel­les le système d’IA à haut ris­que est desti­né à être uti­li­sé, avec une atten­ti­on par­ti­cu­liè­re à l’at­té­nua­ti­on des biais pos­si­bles dans les ensem­bles de don­nées qui sont sus­cep­ti­bles d’af­fec­ter la san­té et la sécu­ri­té des per­son­nes, d’a­voir un impact néga­tif sur les droits fon­da­men­taux ou de con­dui­re à une dis­cri­mi­na­ti­on inter­di­te par le droit de l’U­ni­on, en par­ti­cu­lier lorsque les sor­ties de don­nées influen­cent les entrées pour les opé­ra­ti­ons futures (bou­cles de rétroac­tion). Les biais peu­vent, par exemp­le, être inhér­ents aux ensem­bles de don­nées sous-jacents, notam­ment lorsque des don­nées histo­ri­ques sont uti­li­sées, ou être géné­rés lorsque les systè­mes sont mis en œuvre dans des envi­ron­ne­ments du mon­de réel.

Les résul­tats four­nis par les systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour­rai­ent être influen­cés par de tels biais intrin­sè­ques qui ten­dent à aug­men­ter pro­gres­si­ve­ment et, par con­sé­quent, à per­pé­tuer et à ampli­fier la dis­cri­mi­na­ti­on exi­stan­te, en par­ti­cu­lier pour les per­son­nes appar­tenant à cer­ta­ins grou­pes vul­né­ra­bles, y com­pris les grou­pes raci­aux ou eth­ni­ques. L’e­xi­gence selon laquel­le les ensem­bles de don­nées doi­vent être aus­si com­plets que pos­si­ble et exempts d’err­eurs ne doit pas affec­ter l’uti­li­sa­ti­on de tech­ni­ques de pré­ser­va­ti­on de la vie pri­vée dans le cad­re du déve­lo­p­pe­ment et du test de systè­mes d’in­tel­li­gence arti­fi­ci­el­le. En par­ti­cu­lier, les ensem­bles de don­nées dev­rai­ent tenir comp­te, dans la mesu­re requi­se par leur objec­tif, des carac­té­ri­sti­ques, pro­prié­tés ou élé­ments par­ti­cu­liers à l’en­vi­ron­ne­ment géo­gra­phi­que, con­tex­tu­el, com­porte­men­tal ou fonc­tion­nel spé­ci­fi­que dans lequel le système IA est desti­né à être uti­li­sé. Les exi­gen­ces rela­ti­ves à la gou­ver­nan­ce des don­nées peu­vent être satis­fai­tes en recou­rant à des tiers qui offrent des ser­vices de con­for­mi­té cer­ti­fi­és, y com­pris la véri­fi­ca­ti­on de la gou­ver­nan­ce des don­nées, l’in­té­gri­té des ensem­bles de don­nées et les pra­ti­ques de for­ma­ti­on, de vali­da­ti­on et de test des don­nées, dans la mesu­re où la con­for­mi­té avec les exi­gen­ces en matiè­re de don­nées du pré­sent règle­ment est assurée.

Artic­le 11 Docu­men­ta­ti­on technique

1. La docu­men­ta­ti­on tech­ni­que d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doit être éta­b­lie avant que le système ne soit mis sur le mar­ché ou en ser­vice et doit être tenue à jour.

La docu­men­ta­ti­on tech­ni­que est éta­b­lie de maniè­re à démon­trer que le système d’alar­me à haut ris­que est con­for­me aux exi­gen­ces énon­cées dans la pré­sen­te sec­tion et à four­nir aux auto­ri­tés natio­na­les com­pé­ten­tes et aux orga­nis­mes noti­fi­és les infor­ma­ti­ons néces­saires, sous une for­me clai­re et com­plè­te, pour éva­luer la con­for­mi­té du système d’alar­me à ces exi­gen­ces. Elle doit con­te­nir au mini­mum les élé­ments pré­vus à l’an­ne­xe IV. Les PME, y com­pris les jeu­nes pous­ses, peu­vent four­nir les élé­ments de la docu­men­ta­ti­on tech­ni­que pré­vue à l’an­ne­xe IV de maniè­re sim­pli­fi­ée. À cet­te fin, la Com­mis­si­on éta­blit un for­mu­lai­re de docu­men­ta­ti­on tech­ni­que sim­pli­fié visa­nt à répond­re aux beso­ins des peti­tes et micro-ent­re­pri­ses. Lorsqu’u­ne PME, y com­pris une start-up, choi­sit de four­nir les infor­ma­ti­ons requi­ses à l’an­ne­xe IV sous une for­me sim­pli­fi­ée, elle uti­li­se le for­mu­lai­re visé au pré­sent para­gra­phe. Les orga­nis­mes noti­fi­és accept­ent le for­mu­lai­re aux fins de l’éva­lua­ti­on de la conformité.

2. Lorsqu’un système d’alar­me à haut ris­que lié à un pro­duit cou­vert par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à la sec­tion A de l’an­ne­xe I est mis sur le mar­ché ou mis en ser­vice, un ensem­ble uni­que de docu­men­ta­ti­on tech­ni­que est éta­b­li, con­tenant tou­tes les infor­ma­ti­ons visées au para­gra­phe 1, ain­si que les infor­ma­ti­ons requi­ses par ces actes législatifs.

3. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier l’an­ne­xe IV, le cas échéant, pour fai­re en sor­te que, comp­te tenu des pro­grès tech­ni­ques, la docu­men­ta­ti­on tech­ni­que four­nis­se tou­tes les infor­ma­ti­ons néces­saires pour éva­luer la con­for­mi­té du système avec les exi­gen­ces énon­cées dans la pré­sen­te section.

(71) Il est essen­tiel de dis­po­ser d’in­for­ma­ti­ons com­pré­hen­si­bles sur la maniè­re dont les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que ont été déve­lo­p­pés et sur la façon dont ils fonc­tion­nent tout au long de leur durée de vie, afin de per­mett­re la tra­ça­bi­li­té de ces systè­mes, de véri­fier leur con­for­mi­té aux exi­gen­ces du pré­sent règle­ment, ain­si que de con­trô­ler leur fonc­tion­ne­ment et d’assurer une sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on. Cela néces­si­te la tenue de regi­stres et la dis­po­ni­bi­li­té d’u­ne docu­men­ta­ti­on tech­ni­que con­tenant les infor­ma­ti­ons néces­saires pour éva­luer la con­for­mi­té du système IA aux exi­gen­ces per­ti­nen­tes et faci­li­ter le sui­vi après la mise sur le mar­ché. Ces infor­ma­ti­ons doi­vent inclu­re les carac­té­ri­sti­ques géné­ra­les, les capa­ci­tés et les limi­tes du système, les algo­rith­mes, les don­nées, la for­ma­ti­on, les pro­ce­s­sus de test et de vali­da­ti­on uti­li­sés ain­si que la docu­men­ta­ti­on sur le système de gesti­on des ris­ques con­cer­né et être pré­sen­tées de maniè­re clai­re et com­plè­te. La docu­men­ta­ti­on tech­ni­que dev­rait être main­te­nue à jour, de maniè­re appro­priée, tout au long de la vie du système d’in­tel­li­gence arti­fi­ci­el­le. En out­re, les systè­mes d’IA à haut ris­que dev­rai­ent tech­ni­quement per­mett­re l’en­re­gi­stre­ment auto­ma­tique des évé­ne­ments, au moy­en de jour­naux, pen­dant tou­te la durée de vie du système.

(72) Pour répond­re aux pré­oc­cu­pa­ti­ons rela­ti­ves à l’o­pa­ci­té et à la com­ple­xi­té de cer­ta­ins systè­mes d’IA et aider les déployeurs à rem­plir leurs obli­ga­ti­ons au tit­re du pré­sent règle­ment, la trans­pa­rence dev­rait être exi­gée pour les systè­mes d’IA à haut ris­que avant leur mise sur le mar­ché ou leur mise en ser­vice. Les systè­mes d’IA à haut ris­que dev­rai­ent être con­çus de maniè­re à per­mett­re aux déployeurs de com­prend­re le fonc­tion­ne­ment du système d’IA, d’éva­luer sa fonc­tion­na­li­té et de com­prend­re ses forces et ses limi­tes. Les systè­mes d’IA à haut ris­que dev­rai­ent être accom­pa­gnés d’in­for­ma­ti­ons appro­priées sous la for­me d’ins­truc­tions d’uti­li­sa­ti­on. Ces infor­ma­ti­ons dev­rai­ent inclu­re les carac­té­ri­sti­ques, les capa­ci­tés et les limi­tes de per­for­mance du système IA. Cel­les-ci dev­rai­ent inclu­re des infor­ma­ti­ons sur les éven­tu­el­les cir­con­stances con­nues et pré­vi­si­bles liées à l’uti­li­sa­ti­on du système d’IA à haut ris­que, y com­pris les actions des déployeurs sus­cep­ti­bles d’in­fluen­cer le com­porte­ment et les per­for­man­ces du système, dans le cad­re des­quel­les le système d’IA peut ent­raî­ner des ris­ques pour la san­té, la sécu­ri­té et les droits fon­da­men­taux, sur les chan­ge­ments qui ont été pré­dé­fi­nis et dont la con­for­mi­té a été éva­luée par le four­nis­seur et sur les mesu­res de sur­veil­lan­ce humaine per­ti­nen­tes, y com­pris les mesu­res visa­nt à faci­li­ter l’in­ter­pré­ta­ti­on des résul­tats du système d’IA par les déployeurs. La trans­pa­rence, y com­pris les ins­truc­tions d’uti­li­sa­ti­on qui accom­pagn­ent le système, dev­rait aider les per­son­nes déployées à uti­li­ser le système et à prend­re des décis­i­ons en con­nais­sance de cau­se. Les déployeurs dev­rai­ent, ent­re aut­res, être mieux à même de fai­re le bon choix du système qu’ils envis­agent d’uti­li­ser à la lumiè­re des obli­ga­ti­ons qui leur incom­bent, d’êt­re infor­més des uti­li­sa­ti­ons pré­vues et des uti­li­sa­ti­ons inter­di­tes, et d’uti­li­ser le système d’in­tel­li­gence arti­fi­ci­el­le de maniè­re cor­rec­te et appro­priée. Afin d’a­mé­lio­rer la légiti­mi­té et l’ac­ce­s­si­bi­li­té des infor­ma­ti­ons con­te­nues dans les ins­truc­tions d’uti­li­sa­ti­on, il con­vi­ent d’in­clu­re, le cas échéant, des exemp­les illu­stra­tifs, par exemp­le sur les limi­tes et sur les uti­li­sa­ti­ons pré­vues et inter­di­tes du système IA. Les four­nis­seurs dev­rai­ent veil­ler à ce que tou­te la docu­men­ta­ti­on, y com­pris les ins­truc­tions d’uti­li­sa­ti­on, con­ti­en­ne des infor­ma­ti­ons per­ti­nen­tes, com­plè­tes, acce­s­si­bles et com­pré­hen­si­bles, en tenant comp­te des beso­ins et des con­nais­sances pré­vi­si­bles des uti­li­sa­teurs ciblés. Les ins­truc­tions d’uti­li­sa­ti­on dev­rai­ent être mises à dis­po­si­ti­on dans une lan­gue qui peut être faci­le­ment com­pri­se par les déployeurs cibles, tel­le que déter­mi­née par l’É­tat membre concerné.

Artic­le 12 Con­ser­va­ti­on des dossiers

1. Les systè­mes IA à haut ris­que doi­vent tech­ni­quement per­mett­re l’en­re­gi­stre­ment auto­ma­tique d’é­vé­ne­ments (logs) pen­dant la durée de vie du système.

2. Afin d’assurer un niveau de tra­ça­bi­li­té du fonc­tion­ne­ment d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui soit adap­té à l’ob­jec­tif visé par le système, les capa­ci­tés d’en­re­gi­stre­ment doi­vent per­mett­re d’en­re­gi­strer les évé­ne­ments per­tin­ents pour :

(a) iden­ti­fier les situa­tions qui pour­rai­ent about­ir à ce que le système IA à haut ris­que pré­sen­te un ris­que au sens de l’ar­tic­le 79, para­gra­phe 1, ou à une modi­fi­ca­ti­on substantielle ;

(b) faci­li­ter le sui­vi après la mise sur le mar­ché visé à l’ar­tic­le 72 ; et

(c) sur­veil­ler le fonc­tion­ne­ment des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés à l’ar­tic­le 26, para­gra­phe 5.

3. Pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés au point 1 (a) de l’an­ne­xe III, les capa­ci­tés d’en­re­gi­stre­ment doi­vent être four­nies, au minimum :

(a) l’en­re­gi­stre­ment de la péri­ode de chaque uti­li­sa­ti­on du système (date et heu­re de début et date et heu­re de fin de chaque utilisation) ;

(b) la base de don­nées de réfé­rence par rap­port à laquel­le les don­nées d’en­trée ont été véri­fi­ées par le système ;

(c) les don­nées d’en­trée pour les­quel­les la recher­che a abou­ti à une correspondance ;

(d) l’i­den­ti­fi­ca­ti­on des per­son­nes phy­si­ques impli­quées dans la véri­fi­ca­ti­on des résul­tats, com­me indi­qué à l’ar­tic­le 14(5).

Artic­le 13 Trans­pa­rence et four­ni­tu­re d’in­for­ma­ti­ons aux tra­vail­leurs détachés

1. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être con­çus et déve­lo­p­pés de maniè­re à ce que leur fonc­tion­ne­ment soit suf­fi­sam­ment trans­pa­rent pour per­mett­re aux déployeurs d’in­ter­pré­ter les résul­tats d’un système et de l’uti­li­ser de maniè­re appro­priée. Un type et un degré de trans­pa­rence appro­priés doi­vent être garan­tis en vue d’assurer la con­for­mi­té avec les obli­ga­ti­ons per­ti­nen­tes du four­nis­seur et du déployeur énon­cées à la sec­tion 3.

2. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être accom­pa­gnés d’ins­truc­tions d’uti­li­sa­ti­on, sous un for­mat numé­ri­que appro­prié ou aut­re, com­prenant des infor­ma­ti­ons con­cis­es, com­plè­tes, cor­rec­tes et clai­res qui soi­ent per­ti­nen­tes, acce­s­si­bles et com­pré­hen­si­bles pour les déployeurs.

3. Les ins­truc­tions d’uti­li­sa­ti­on doi­vent con­te­nir au moins les infor­ma­ti­ons suivantes :

(a) l’i­den­ti­té et les coor­don­nées du four­nis­seur et, le cas échéant, de son repré­sen­tant autorisé ;

(b) les carac­té­ri­sti­ques, les capa­ci­tés et les limi­tes de per­for­mance du système d’IA à haut ris­que, y compris :

(i) sa finalité ;

(ii) le niveau d’e­xac­ti­tu­de, y com­pris ses mesu­res, de robust­es­se et de cyber­sé­cu­ri­té visé à l’ar­tic­le 15 par rap­port auquel le système d’IA à haut ris­que a été testé et vali­dé et qui peut être escomp­té, ain­si que tou­te cir­con­stance con­nue et pré­vi­si­ble sus­cep­ti­ble d’a­voir une inci­dence sur ce niveau escomp­té d’e­xac­ti­tu­de, de robust­es­se et de cybersécurité ;

(iii) tou­te cir­con­stance con­nue ou pré­vi­si­ble, liée à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment à sa fina­li­té ou dans des con­di­ti­ons de mau­vai­se uti­li­sa­ti­on rai­sonnablem­ent pré­vi­si­bles, qui pour­rait ent­raî­ner des ris­ques pour la san­té et la sécu­ri­té ou les droits fon­da­men­taux men­ti­onnés à l’ar­tic­le 9(2) ;

(iv) le cas échéant, les capa­ci­tés tech­ni­ques et les carac­té­ri­sti­ques du système d’IA à haut ris­que afin de four­nir des infor­ma­ti­ons per­ti­nen­tes pour expli­quer sa production ;

(v) lorsque cela est appro­prié, ses per­for­man­ces par rap­port à des per­son­nes ou des grou­pes de per­son­nes spé­ci­fi­ques sur les­quels le système est desti­né à être utilisé ;

(vi) lorsque cela est appro­prié, les spé­ci­fi­ca­ti­ons des don­nées d’en­trée, ou tou­te aut­re infor­ma­ti­on per­ti­nen­te en ce qui con­cer­ne les ensem­bles de don­nées de for­ma­ti­on, de vali­da­ti­on et d’es­sai uti­li­sés, en tenant comp­te de l’ob­jec­tif pré­vu du système IA à haut risque ;

(vii) le cas échéant, des infor­ma­ti­ons per­met­tant aux déployeurs d’in­ter­pré­ter la sor­tie du système d’IA à haut ris­que et de l’uti­li­ser de maniè­re appropriée ;

(c) les modi­fi­ca­ti­ons appor­tées au système IA à haut ris­que et à ses per­for­man­ces qui ont été pré­dé­fi­nies par le four­nis­seur au moment de l’éva­lua­ti­on initia­le de la con­for­mi­té, le cas échéant ;

(d) les mesu­res de con­trô­le humain men­ti­onnées à l’ar­tic­le 14, y com­pris les mesu­res tech­ni­ques mises en place pour faci­li­ter l’in­ter­pré­ta­ti­on des résul­tats des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que par les déployeurs ;

(e) les res­sour­ces infor­ma­ti­ques et maté­ri­el­les néces­saires, la durée de vie pré­vue du système IA à haut ris­que et tou­te mesu­re de main­ten­an­ce et d’en­tre­ti­en néces­saire, y com­pris sa fré­quence, pour assurer le bon fonc­tion­ne­ment de ce système IA, y com­pris en ce qui con­cer­ne les mises à jour logicielles ;

(f) le cas échéant, une descrip­ti­on des méca­nis­mes inclus dans le système d’IA à haut ris­que qui per­met­tent aux déployeurs de coll­ec­ter, de stocker et d’in­ter­pré­ter cor­rec­te­ment les logs con­for­mé­ment à l’ar­tic­le 12.

(74) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent fonc­tion­ner de maniè­re cohé­ren­te tout au long de leur cycle de vie et att­eind­re un niveau appro­prié de pré­cis­i­on, de robust­es­se et de cyber­sé­cu­ri­té, comp­te tenu de leur objec­tif et con­for­mé­ment à l’é­tat de l’art géné­ra­le­ment recon­nu. La Com­mis­si­on et les orga­ni­sa­ti­ons et par­ties pren­an­tes con­cer­nées sont encou­ra­gées à prend­re dûment en con­sidé­ra­ti­on la miti­ga­ti­on des ris­ques et des impacts néga­tifs du système d’in­tel­li­gence arti­fi­ci­el­le. Le niveau atten­du des mesu­res de per­for­mance doit être indi­qué dans les ins­truc­tions d’uti­li­sa­ti­on. Les four­nis­seurs sont encou­ra­gés à com­mu­ni­quer ces infor­ma­ti­ons aux déployeurs de maniè­re clai­re et faci­le­ment com­pré­hen­si­ble, sans malen­ten­dus ni décla­ra­ti­ons men­son­gè­res. La légis­la­ti­on euro­pé­en­ne sur la métro­lo­gie léga­le, y com­pris les direc­ti­ves 2014/31/UE35 et 2014/32/UE36 du Par­le­ment euro­pé­en et du Con­seil, vise à garan­tir l’e­xac­ti­tu­de des mesu­res et à con­tri­buer à la trans­pa­rence et à l’é­qui­té des tran­sac­tions com­mer­cia­les. Dans ce con­tex­te, en coopé­ra­ti­on avec les par­ties pren­an­tes et les orga­ni­sa­ti­ons con­cer­nées, tel­les que les auto­ri­tés de métro­lo­gie et d’é­ta­lon­na­ge, la Com­mis­si­on dev­rait encou­ra­ger, le cas échéant, le déve­lo­p­pe­ment de critères de réfé­rence et de métho­do­lo­gies de mesu­re pour les systè­mes d’IA. Dans cet­te optique, la Com­mis­si­on dev­rait prend­re note et col­la­bo­rer avec des par­ten­aires inter­na­ti­on­aux tra­vail­lant sur la métro­lo­gie et les indi­ca­teurs de mesu­re per­tin­ents rela­tifs à l’IA.

(75) La robust­es­se tech­ni­que est une exi­gence clé pour les systè­mes d’IA à haut ris­que. Ils doi­vent être rési­li­en­ts par rap­port aux com­porte­ments nui­si­bles ou autre­ment non sou­hai­ta­bles qui peu­vent résul­ter de limi­ta­ti­ons au sein des systè­mes ou de l’en­vi­ron­ne­ment dans lequel les systè­mes fonc­tion­nent (par exemp­le, err­eurs, défauts, incohé­ren­ces, situa­tions inat­ten­dues). Par con­sé­quent, des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les dev­rai­ent être pri­ses pour assurer la robust­es­se des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, par exemp­le en conce­vant et en déve­lo­pp­ant des solu­ti­ons tech­ni­ques appro­priées pour pré­ve­nir ou rédui­re au mini­mum les com­porte­ments dan­ge­reux ou autre­ment non sou­hai­ta­bles. Ces solu­ti­ons tech­ni­ques peu­vent inclu­re, par exemp­le, des méca­nis­mes per­met­tant au système d’in­ter­romp­re son fonc­tion­ne­ment de maniè­re sûre (plans de sécu­ri­té) en pré­sence de cer­tai­nes anoma­lies ou lorsque le fonc­tion­ne­ment a lieu en dehors de cer­tai­nes limi­tes pré­dé­fi­nies. L’in­ca­pa­ci­té à se pro­té­ger cont­re ces ris­ques pour­rait avoir des con­sé­quen­ces sur la sécu­ri­té ou affec­ter néga­ti­ve­ment les droits fon­da­men­taux, par exemp­le en rai­son de décis­i­ons erro­n­ées ou de résul­tats erro­n­és ou biai­sés géné­rés par le système d’in­tel­li­gence artificielle.

(76) La cyber­sé­cu­ri­té joue un rôle cru­cial pour garan­tir la rési­li­ence des systè­mes d’IA face aux ten­ta­ti­ves de modi­fi­ca­ti­on de leur uti­li­sa­ti­on, de leur com­porte­ment, de leurs per­for­man­ces ou de com­pro­mis­si­on de leurs pro­prié­tés de sécu­ri­té par des tiers mal­veil­lants explo­itant les vul­né­ra­bi­li­tés du système. Les cyberat­ta­ques cont­re les systè­mes d’IA peu­vent uti­li­ser des actifs spé­ci­fi­ques à l’IA, tels que des ensem­bles de don­nées de for­ma­ti­on (p. ex. empoi­son­ne­ment de don­nées) ou des modè­les for­més (p. ex. atta­ques adver­ses ou infé­rence de mem­bres), ou exploi­ter des vul­né­ra­bi­li­tés dans les actifs numé­ri­ques du système d’IA ou dans l’in­fras­truc­tu­re TIC sous-jacen­te. Afin d’assurer un niveau de cyber­sé­cu­ri­té adap­té aux ris­ques, des mesu­res appro­priées, tel­les que des con­trô­les de sécu­ri­té, dev­rai­ent donc être pri­ses par les four­nis­seurs de systè­mes d’IA à haut ris­que, en tenant éga­le­ment comp­te de l’in­fras­truc­tu­re TIC sous-jacente.

(27) Bien que l’appro­che basée sur le ris­que con­sti­tue la base d’un ensem­ble pro­por­ti­onné et effi­cace de règles con­traignan­tes, il est important de rap­pe­l­er les lignes direc­tri­ces éthi­ques 2019 pour une IA de con­fi­ance, éla­bo­rées par le HLEG IA indé­pen­dant nom­mé par la Com­mis­si­on. Dans ces lignes direc­tri­ces, l’AI HLEG a éla­bo­ré sept prin­cipes éthi­ques non con­traignants pour l’IA, qui sont cen­sés aider à garan­tir que l’IA est fia­ble et éthi­quement sai­ne. Les sept prin­cipes com­pren­nent l’a­gence humaine et la super­vi­si­on ; la robust­es­se tech­ni­que et la sécu­ri­té ; la con­fi­den­tia­li­té et la gou­ver­nan­ce des don­nées ; la trans­pa­rence ; la diver­si­té, la non-dis­cri­mi­na­ti­on et l’é­qui­té ; le bien-être social et envi­ron­ne­men­tal et la responsa­bi­li­té. Sans pré­ju­di­ce des exi­gen­ces juri­di­quement con­traignan­tes du pré­sent règle­ment et de tou­te aut­re légis­la­ti­on de l’U­ni­on appli­ca­ble, ces lignes direc­tri­ces con­tri­buent à la con­cep­ti­on d’u­ne IA cohé­ren­te, fia­ble et cen­trée sur l’hu­main, con­for­mé­ment à la Char­te et aux valeurs sur les­quel­les l’U­ni­on est fon­dée. Selon les lignes direc­tri­ces du HLEG sur l’in­tel­li­gence arti­fi­ci­el­le, l’a­gence et la sur­veil­lan­ce humain­es signi­fi­ent que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont con­çus et uti­li­sés com­me un outil au ser­vice des per­son­nes, respec­tent la dignité humaine et l’au­to­no­mie per­son­nel­le, et fonc­tion­nent de maniè­re à pou­voir être con­trôlés et sur­veil­lés de maniè­re appro­priée par les êtres humains.

La robust­es­se et la sécu­ri­té tech­ni­ques signi­fi­ent que les systè­mes d’IA sont déve­lo­p­pés et uti­li­sés de maniè­re à per­mett­re la robust­es­se en cas de pro­blè­me et la rési­stance aux ten­ta­ti­ves de modi­fi­ca­ti­on de l’uti­li­sa­ti­on ou des per­for­man­ces du système d’IA afin d’empêcher tou­te uti­li­sa­ti­on illi­ci­te par des tiers et de mini­mi­ser les dom­mages non inten­ti­on­nels. La gou­ver­nan­ce de la vie pri­vée et des don­nées signi­fie que les systè­mes d’IA sont déve­lo­p­pés et uti­li­sés en con­for­mi­té avec les règles de pro­tec­tion de la vie pri­vée et des don­nées, tout en trai­tant des don­nées qui répon­dent à des nor­mes éle­vées en ter­mes de qua­li­té et d’intégrité.

La trans­pa­rence signi­fie que les systè­mes d’IA sont déve­lo­p­pés et uti­li­sés de maniè­re à per­mett­re une tra­ça­bi­li­té et une expli­ca­bi­li­té appro­priées, tout en rendant les humains con­sci­ents qu’ils com­mu­ni­quent ou inter­agis­sent avec un système d’IA, ain­si qu’en infor­mant dûment les déployeurs des capa­ci­tés et des limi­tes de ce système d’IA et les per­son­nes con­cer­nées de leurs droits. Diver­si­té, non-dis­cri­mi­na­ti­on et équi­té signi­fi­ent que les systè­mes d’IA sont déve­lo­p­pés et uti­li­sés de maniè­re à inclu­re des acteurs divers et à pro­mou­voir l’é­ga­li­té d’ac­cès, l’é­ga­li­té des sexes et la diver­si­té cul­tu­rel­le, tout en évi­tant les effets dis­cri­mi­na­toires et les biais inju­stes inter­dits par le droit de l’U­ni­on ou le droit natio­nal. Le bien-être social et envi­ron­ne­men­tal signi­fie que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont déve­lo­p­pés et uti­li­sés d’u­ne maniè­re dura­ble et respec­tueu­se de l’en­vi­ron­ne­ment, ain­si que de maniè­re à pro­fi­ter à tous les êtres humains, tout en sur­veil­lant et en éva­lu­ant leur impact à long ter­me sur l’in­di­vi­du, la socié­té et la démo­cra­tie. L’ap­pli­ca­ti­on de ces prin­cipes dev­rait être tra­duite, si pos­si­ble, dans la con­cep­ti­on et l’uti­li­sa­ti­on de modè­les IA. Dans tous les cas, ils dev­rai­ent ser­vir de base à l’é­la­bo­ra­ti­on de codes de con­duite en ver­tu du pré­sent règle­ment. Tou­tes les par­ties pren­an­tes, y com­pris l’in­du­strie, le mon­de uni­ver­si­taire, la socié­té civi­le et les orga­ni­sa­ti­ons de nor­ma­li­sa­ti­on, sont encou­ra­gées à prend­re en comp­te, le cas échéant, les prin­cipes éthi­ques pour l’é­la­bo­ra­ti­on de bon­nes pra­ti­ques et de nor­mes volontaires.

Artic­le 14 Sur­veil­lan­ce humaine

1. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être con­çus et déve­lo­p­pés, y com­pris avec des outils d’in­ter­face hom­me-machi­ne appro­priés, de tel­le maniè­re qu’ils pui­s­sent être effi­ca­ce­ment con­trôlés par des per­son­nes phy­si­ques pen­dant la péri­ode au cours de laquel­le ils sont utilisés.

2. La sur­veil­lan­ce humaine doit viser à pré­ve­nir ou à rédui­re au mini­mum les ris­ques pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux qui peu­vent sur­ve­nir lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que est uti­li­sé con­for­mé­ment à son objec­tif ou dans des con­di­ti­ons de mau­vai­se uti­li­sa­ti­on rai­sonnablem­ent pré­vi­si­bles, en par­ti­cu­lier lorsque de tels ris­ques per­si­stent mal­gré l’ap­pli­ca­ti­on des aut­res exi­gen­ces énon­cées dans la pré­sen­te section.

3. Les mesu­res de con­trô­le doi­vent être adap­tées aux ris­ques, au niveau d’au­to­no­mie et au con­tex­te d’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, et doi­vent être assu­rées par l’un ou l’aut­re ou les deux types de mesu­res suivants :

(a) mesu­res iden­ti­fi­ées et inté­g­rées, lorsque cela est tech­ni­quement pos­si­ble, dans le système d’IA à haut ris­que par le four­nis­seur avant qu’il ne soit mis sur le mar­ché ou en service ;

(b) les mesu­res iden­ti­fi­ées par le four­nis­seur avant de mett­re le système d’IA à haut ris­que sur le mar­ché ou de le mett­re en ser­vice et qui sont appro­priées pour être mises en œuvre par le déployeur.

4. Aux fins de la mise en œuvre des para­gra­phes 1, 2 et 3, le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doit être mis à la dis­po­si­ti­on du déployeur de maniè­re à per­mett­re aux per­son­nes phy­si­ques aux­quel­les est con­fiée la sur­veil­lan­ce humaine, de maniè­re appro­priée et proportionnée: :

(a) de com­prend­re cor­rec­te­ment les capa­ci­tés et les limi­tes per­ti­nen­tes du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et d’êt­re en mesu­re de sur­veil­ler cor­rec­te­ment son fonc­tion­ne­ment, y com­pris en ce qui con­cer­ne la détec­tion et le trai­te­ment des anoma­lies, des dys­fonc­tion­ne­ments et des per­for­man­ces inattendues ;

(b) de rester con­sci­ent de la ten­dance pos­si­ble à se baser auto­ma­ti­quement sur les résul­tats pro­duits par un système d’IA à haut ris­que ou à les sure­sti­mer (biais d’au­to­ma­tisa­ti­on), en par­ti­cu­lier pour les systè­mes d’IA à haut ris­que uti­li­sés pour four­nir des infor­ma­ti­ons ou des recom­man­da­ti­ons pour des décis­i­ons à prend­re par des per­son­nes physiques ;

(c) d’in­ter­pré­ter cor­rec­te­ment les résul­tats du système d’IA à haut ris­que, en tenant comp­te, par exemp­le, des outils et des métho­des d’in­ter­pré­ta­ti­on disponibles ;

(d) de déci­der, dans tou­te situa­ti­on par­ti­cu­liè­re, de ne pas uti­li­ser le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que ou de ne pas en tenir comp­te, de pas­ser out­re ou d’in­ver­ser la sor­tie du système d’in­tel­li­gence arti­fi­ci­el­le à haut risque ;

(e) d’in­ter­ve­nir dans le fonc­tion­ne­ment du système IA à haut ris­que ou d’in­ter­romp­re le système par un bou­ton ’stop’ ou une pro­cé­du­re simi­lai­re qui per­met au système de s’ar­rêter dans un état sûr.

Pour les systè­mes IA à haut ris­que visés au point 1 a) de l’an­ne­xe III, les mesu­res visées au para­gra­phe 3 du pré­sent artic­le sont tel­les que, en out­re, aucu­ne action ou décis­i­on n’est pri­se par le déclarant sur la base de l’i­den­ti­fi­ca­ti­on résul­tant du système, à moins que cet­te iden­ti­fi­ca­ti­on n’ait été véri­fi­ée et con­fir­mée sépa­ré­ment par au moins deux per­son­nes phy­si­ques pos­sé­dant les com­pé­ten­ces, la for­ma­ti­on et l’au­to­ri­té nécessaires.

L’e­xi­gence d’u­ne véri­fi­ca­ti­on sépa­rée par au moins deux per­son­nes phy­si­ques ne s’ap­pli­que pas aux systè­mes d’IA à haut ris­que uti­li­sés à des fins d’ap­pli­ca­ti­on de la loi, de migra­ti­on, de con­trô­le des fron­tiè­res ou d’a­si­le, lorsque le droit de l’U­ni­on ou le droit natio­nal con­sidè­re que l’ap­pli­ca­ti­on de cet­te exi­gence est disproportionnée.

(73) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que dev­rai­ent être con­çus et déve­lo­p­pés de maniè­re à ce que des per­son­nes phy­si­ques pui­s­sent super­vi­ser leur fonc­tion­ne­ment, s’assurer qu’ils sont uti­li­sés com­me pré­vu et que leurs effets sont gérés tout au long du cycle de vie du système. A cet­te fin, des mesu­res de sur­veil­lan­ce humaine appro­priées dev­rai­ent être iden­ti­fi­ées par le four­nis­seur du système avant sa mise sur le mar­ché ou sa mise en ser­vice. En par­ti­cu­lier, le cas échéant, ces mesu­res doi­vent garan­tir que le système est sou­mis à des con­train­tes opé­ra­ti­on­nel­les inté­g­rées qui ne peu­vent pas être dépas­sées par le système lui-même et qu’il est sen­si­ble à l’opé­ra­teur humain, et que les per­son­nes phy­si­ques aux­quel­les la super­vi­si­on humaine a été attri­buée ont les com­pé­ten­ces, la for­ma­ti­on et l’au­to­ri­té néces­saires pour assu­mer ce rôle. Il est éga­le­ment essen­tiel de s’assurer, le cas échéant, que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que com­portent des méca­nis­mes per­met­tant de gui­der et d’in­for­mer une per­son­ne phy­si­que à laquel­le la super­vi­si­on humaine a été con­fiée afin qu’el­le pren­ne des décis­i­ons éclai­rées sur la que­sti­on de savoir si, quand et com­ment inter­ve­nir pour évi­ter des con­sé­quen­ces néga­ti­ves ou des ris­ques, ou pour arrêter le système s’il ne fonc­tion­ne pas com­me pré­vu. Comp­te tenu des con­sé­quen­ces importan­tes pour les per­son­nes en cas de cor­re­spond­ance erro­n­ée par cer­ta­ins systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que, il est appro­prié de pré­voir une exi­gence de con­trô­le humain ren­for­cée pour ces systè­mes, de sor­te qu’au­cu­ne action ou décis­i­on ne pui­s­se être pri­se par le déclarant sur la base de l’i­den­ti­fi­ca­ti­on résul­tant du système, à moins que cel­le-ci n’ait été véri­fi­ée et con­fir­mée sépa­ré­ment par au moins deux per­son­nes phy­si­ques. Ces per­son­nes pour­rai­ent être issues d’u­ne ou de plu­sieurs enti­tés et inclu­re la per­son­ne qui exploi­te ou uti­li­se le système. Cet­te exi­gence ne dev­rait pas ent­raî­ner de char­ge ou de retards inu­tiles et il pour­rait suf­fi­re que les véri­fi­ca­ti­ons sépa­rées effec­tuées par les dif­fé­ren­tes per­son­nes soi­ent auto­ma­ti­quement enre­gi­strées dans les jour­naux géné­rés par le système. Comp­te tenu des spé­ci­fi­ci­tés des domain­es de l’ap­pli­ca­ti­on de la loi, de la migra­ti­on, du con­trô­le des fron­tiè­res et de l’a­si­le, cet­te exi­gence ne dev­rait pas s’ap­pli­quer lorsque le droit de l’U­ni­on ou le droit natio­nal con­sidè­re que l’ap­pli­ca­ti­on de cet­te exi­gence est disproportionnée.

Artic­le 15 Pré­cis­i­on, robust­es­se et cybersécurité

1. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être con­çus et déve­lo­p­pés de maniè­re à att­eind­re un niveau appro­prié de pré­cis­i­on, de robust­es­se et de cyber­sé­cu­ri­té, et à être per­for­mants de maniè­re cohé­ren­te à ces égards tout au long de leur cycle de vie.

2. Pour trai­ter les aspects tech­ni­ques de la maniè­re de mesurer les niveaux appro­priés de pré­cis­i­on et de robust­es­se fixés au para­gra­phe 1 et tout aut­re critère de per­for­mance per­ti­nent, la Com­mis­si­on, en coopé­ra­ti­on avec les par­ties pren­an­tes et les orga­ni­sa­ti­ons con­cer­nées, tel­les que les auto­ri­tés de métro­lo­gie et d’é­ta­lon­na­ge, encou­ra­ge, le cas échéant, le déve­lo­p­pe­ment de critères de réfé­rence et de métho­do­lo­gies de mesure.

3. Les niveaux de pré­cis­i­on et les mesu­res de pré­cis­i­on per­ti­nen­tes des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être expli­qués dans les ins­truc­tions d’uti­li­sa­ti­on qui les accompagnent.

4. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être aus­si rési­li­en­ts que pos­si­ble face aux err­eurs, défauts ou incohé­ren­ces qui peu­vent sur­ve­nir au sein du système ou de l’en­vi­ron­ne­ment dans lequel le système opè­re, notam­ment en rai­son de leur inter­ac­tion avec des per­son­nes phy­si­ques ou d’aut­res systè­mes. Des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les doi­vent être pri­ses à cet égard.

La robust­es­se des systè­mes IA à haut ris­que peut être assu­rée par des solu­ti­ons tech­ni­ques de redond­ance, qui peu­vent inclu­re des plans de sau­vegar­de ou de sécurité.

Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui con­ti­nuent d’app­rend­re après avoir été mis sur le mar­ché ou en ser­vice doi­vent être déve­lo­p­pés de maniè­re à éli­mi­ner ou à rédui­re autant que pos­si­ble le ris­que de sor­ties éven­tu­el­le­ment biai­sées influen­çant les entrées pour les opé­ra­ti­ons futures (bou­cles de rétroac­tion), et à s’assurer que ces bou­cles de rétroac­tion sont dûment trai­tées par des mesu­res d’at­té­nua­ti­on appropriées.

5. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être rési­stants aux ten­ta­ti­ves de tiers non auto­ri­sés de modi­fier leur uti­li­sa­ti­on, leurs résul­tats ou leurs per­for­man­ces en explo­itant les vul­né­ra­bi­li­tés du système.

Les solu­ti­ons tech­ni­ques visa­nt à assurer la cyber­sé­cu­ri­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent être adap­tées aux cir­con­stances et aux ris­ques pertinents.

Les solu­ti­ons tech­ni­ques pour trai­ter les vul­né­ra­bi­li­tés spé­ci­fi­ques à l’IA doi­vent inclu­re, le cas échéant, des mesu­res pour pré­ve­nir, détec­ter, répond­re, résoud­re et con­trô­ler les atta­ques visa­nt à mani­pu­ler l’en­sem­ble des don­nées de for­ma­ti­on (empoi­son­ne­ment des don­nées), ou les com­po­sants pré-trai­tés uti­li­sés dans la for­ma­ti­on (empoi­son­ne­ment du modè­le), les entrées con­çues pour pro­vo­quer une err­eur du modè­le d’IA (exemp­les adver­ses ou éva­si­on du modè­le), les atta­ques de con­fi­den­tia­li­té ou les fail­les du modèle.

(76) La cyber­sé­cu­ri­té joue un rôle cru­cial pour garan­tir la rési­li­ence des systè­mes d’IA face aux ten­ta­ti­ves de modi­fi­ca­ti­on de leur uti­li­sa­ti­on, de leur com­porte­ment, de leurs per­for­man­ces ou de com­pro­mis­si­on de leurs pro­prié­tés de sécu­ri­té par des tiers mal­veil­lants explo­itant les vul­né­ra­bi­li­tés du système. Les cyberat­ta­ques cont­re les systè­mes d’IA peu­vent uti­li­ser des actifs spé­ci­fi­ques à l’IA, tels que des ensem­bles de don­nées de for­ma­ti­on (p. ex. empoi­son­ne­ment de don­nées) ou des modè­les for­més (p. ex. atta­ques adver­ses ou infé­rence de mem­bres), ou exploi­ter des vul­né­ra­bi­li­tés dans les actifs numé­ri­ques du système d’IA ou dans l’in­fras­truc­tu­re TIC sous-jacen­te. Afin d’assurer un niveau de cyber­sé­cu­ri­té adap­té aux ris­ques, des mesu­res appro­priées, tel­les que des con­trô­les de sécu­ri­té, dev­rai­ent donc être pri­ses par les four­nis­seurs de systè­mes d’IA à haut ris­que, en tenant éga­le­ment comp­te de l’in­fras­truc­tu­re TIC sous-jacente.

(77) Sans pré­ju­di­ce des exi­gen­ces rela­ti­ves à la robust­es­se et à la pré­cis­i­on énon­cées dans le pré­sent règle­ment, les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui relè­vent du champ d’ap­pli­ca­ti­on d’un règle­ment du Par­le­ment euro­pé­en et du Con­seil rela­tif aux exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits com­portant des élé­ments numé­ri­ques, con­for­mé­ment à ce règle­ment, peu­vent démon­trer leur con­for­mi­té aux exi­gen­ces de cyber­sé­cu­ri­té du pré­sent règle­ment en satis­faisant aux exi­gen­ces essen­ti­el­les de cyber­sé­cu­ri­té énon­cées dans ce règle­ment. Lorsque les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que satis­font aux exi­gen­ces essen­ti­el­les d’un règle­ment du Par­le­ment euro­pé­en et du Con­seil éta­blis­sant des exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits à élé­ments numé­ri­ques, ils doi­vent être con­sidé­rés com­me con­for­mes aux exi­gen­ces de cyber­sé­cu­ri­té énon­cées dans le pré­sent règle­ment, dans la mesu­re où le respect de ces exi­gen­ces est démon­tré dans la décla­ra­ti­on UE de con­for­mi­té ou dans des par­ties de cel­le-ci émi­se en ver­tu dudit règle­ment. cet effet, l’éva­lua­ti­on des ris­ques de cyber­sé­cu­ri­té asso­ciés à un pro­duit à élé­ments numé­ri­ques clas­sé com­me système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que selon le pré­sent règle­ment, effec­tuée en ver­tu d’un règle­ment du Par­le­ment euro­pé­en et du Con­seil éta­blis­sant des exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits à élé­ments numé­ri­ques, dev­rait tenir comp­te des ris­ques pour la cyber­ré­si­stance d’un système d’in­tel­li­gence arti­fi­ci­el­le en ce qui con­cer­ne les ten­ta­ti­ves de tiers non auto­ri­sés de modi­fier son uti­li­sa­ti­on, son com­porte­ment ou ses per­for­man­ces, y com­pris les vul­né­ra­bi­li­tés spé­ci­fi­ques à l’in­tel­li­gence arti­fi­ci­el­le, tel­les que le pira­ta­ge de don­nées ou les atta­ques adver­ses, ain­si que, le cas échéant, des ris­ques pour les droits fon­da­men­taux tels que requis par le pré­sent règlement.

La pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té pré­vue par le pré­sent règle­ment doit s’ap­pli­quer en ce qui con­cer­ne les exi­gen­ces essen­ti­el­les de cyber­sé­cu­ri­té d’un pro­duit à élé­ments numé­ri­ques cou­vert par un règle­ment du Par­le­ment euro­pé­en et du Con­seil rela­tif aux exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits à élé­ments numé­ri­ques et clas­sé com­me système IA à haut ris­que en ver­tu du pré­sent règle­ment. Tou­te­fois, cet­te règ­le ne doit pas avoir pour effet de rédui­re le niveau d’assu­rance néces­saire pour les pro­duits cri­ti­ques con­tenant des élé­ments numé­ri­ques cou­verts par un règle­ment du Par­le­ment euro­pé­en et du Con­seil rela­tif aux exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits con­tenant des élé­ments numé­ri­ques. Par con­sé­quent, par déro­ga­ti­on à cet­te règ­le, les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui relè­vent du champ d’ap­pli­ca­ti­on du pré­sent règle­ment et qui sont éga­le­ment qua­li­fi­és de pro­duits importants et cri­ti­ques con­tenant des élé­ments numé­ri­ques con­for­mé­ment à un règle­ment du Par­le­ment euro­pé­en et du Con­seil rela­tif aux exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits con­tenant des élé­ments numé­ri­ques et aux­quels s’ap­pli­que la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té fon­dée sur le con­trô­le inter­ne énon­cée dans une anne­xe au pré­sent règle­ment, sont sou­mis aux dis­po­si­ti­ons rela­ti­ves à l’éva­lua­ti­on de la con­for­mi­té d’un règle­ment du Par­le­ment euro­pé­en et du Con­seil rela­tif aux exi­gen­ces hori­zon­ta­les de cyber­sé­cu­ri­té pour les pro­duits con­tenant des élé­ments numé­ri­ques dans la mesu­re où les exi­gen­ces essen­ti­el­les de cyber­sé­cu­ri­té de ce règle­ment sont con­cer­nées. Dans ce cas, pour tous les aut­res aspects cou­verts par le pré­sent règle­ment, les dis­po­si­ti­ons respec­ti­ves rela­ti­ves à l’éva­lua­ti­on de la con­for­mi­té sur la base du con­trô­le inter­ne figu­rant dans une anne­xe au pré­sent règle­ment doi­vent s’ap­pli­quer. Sur la base des con­nais­sances et de l’ex­per­ti­se de l’E­NISA en matiè­re de poli­tique de cyber­sé­cu­ri­té et des tâches qui lui sont assi­gnées en ver­tu du règle­ment (UE) 2019/881 du Par­le­ment euro­pé­en et du Con­seil , la Com­mis­si­on dev­rait coopé­rer avec l’E­NISA sur les que­sti­ons liées à la cyber­sé­cu­ri­té des systè­mes d’in­tel­li­gence artificielle.

Sec­tion 3 Obli­ga­ti­ons des four­nis­seurs et des déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et aut­res parties

Artic­le 16 Obli­ga­ti­ons des four­nis­seurs de systè­mes d’IA à haut risque

(79) Il est appro­prié qu’u­ne per­son­ne phy­si­que ou mora­le spé­ci­fi­que, défi­nie com­me le four­nis­seur, assu­me la responsa­bi­li­té de la mise sur le mar­ché ou de la mise en ser­vice d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, indé­pen­dam­ment du fait que cet­te per­son­ne phy­si­que ou mora­le soit la per­son­ne qui a con­çu ou déve­lo­p­pé le système.

Four­nis­seurs de systè­mes IA à haut ris­que shall :

(a) veil­lent à ce que leurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que soi­ent con­for­mes aux exi­gen­ces énon­cées à la sec­tion 2 ;

(b) indi­quent sur le système d’alar­me à haut ris­que ou, si cela n’est pas pos­si­ble, sur son embal­la­ge ou sa docu­men­ta­ti­on d’ac­com­pa­gne­ment, selon le cas, leur nom, leur nom com­mer­cial enre­gi­stré ou leur mar­que com­mer­cia­le enre­gi­strée, l’adres­se à laquel­le ils peu­vent être contactés ;

(c) ont mis en place un système de gesti­on de la qua­li­té qui est con­for­me à l’ar­tic­le 17 ;

(d) con­ser­vent la docu­men­ta­ti­on visée à l’ar­tic­le 18 ;

(e) lorsqu’ils sont sous leur con­trô­le, con­ser­vent les jour­naux de bord géné­rés auto­ma­ti­quement par leurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, com­me indi­qué à l’ar­tic­le 19 ;

(f) veil­lent à ce que le système IA à haut ris­que soit sou­mis à la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té per­ti­nen­te visée à l’ar­tic­le 43 avant d’êt­re mis sur le mar­ché ou mis en service ;

(g) éta­b­lir une décla­ra­ti­on UE de con­for­mi­té con­for­mé­ment à l’ar­tic­le 47 ;

(h) appo­se le mar­quage CE sur le système d’alar­me à haut ris­que ou, si cela n’est pas pos­si­ble, sur son embal­la­ge ou sur la docu­men­ta­ti­on l’ac­com­pa­gnant, pour indi­quer sa con­for­mi­té au pré­sent règle­ment, con­for­mé­ment à l’ar­tic­le 48 ;

(i) se con­for­ment aux obli­ga­ti­ons d’en­re­gi­stre­ment visées à l’ar­tic­le 49, para­gra­phe 1 ;

(j) pren­nent les mesu­res cor­rec­ti­ves néces­saires et four­nis­sent les infor­ma­ti­ons requi­ses en ver­tu de l’ar­tic­le 20 ;

(k) sur deman­de moti­vée d’u­ne auto­ri­té natio­na­le com­pé­ten­te, démon­trer la con­for­mi­té du système d’IA à haut ris­que avec les exi­gen­ces énon­cées à la sec­tion 2 ;

(l) s’assurer que le système IA à haut ris­que est con­for­me aux exi­gen­ces d’ac­ce­s­si­bi­li­té con­for­mé­ment aux direc­ti­ves (UE) 2016/2102 et (UE) 2019/882.

(80) En tant que signa­tai­res de la Con­ven­ti­on des Nati­ons unies rela­ti­ve aux droits des per­son­nes han­di­ca­pées, l’U­ni­on et les États mem­bres sont léga­le­ment tenus de pro­té­ger les per­son­nes han­di­ca­pées cont­re la dis­cri­mi­na­ti­on et de pro­mou­voir leur éga­li­té, de veil­ler à ce que les per­son­nes han­di­ca­pées aient accès, sur un pied d’é­ga­li­té avec les aut­res, aux tech­no­lo­gies et systè­mes d’in­for­ma­ti­on et de com­mu­ni­ca­ti­on, et de garan­tir le respect de la vie pri­vée des per­son­nes han­di­ca­pées. Comp­te tenu de l’im­portance et de l’uti­li­sa­ti­on crois­s­an­tes des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, l’ap­pli­ca­ti­on des prin­cipes de con­cep­ti­on uni­ver­sel­le à tou­tes les nou­vel­les tech­no­lo­gies et à tous les ser­vices dev­rait garan­tir un accès com­plet et égal pour tou­te per­son­ne poten­ti­el­le­ment affec­tée par ou uti­li­sant des tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le, y com­pris les per­son­nes han­di­ca­pées, d’u­ne maniè­re qui tien­ne plei­ne­ment comp­te de leur dignité et de leur diver­si­té intrin­sè­ques. Il est donc essen­tiel que les four­nis­seurs assu­rent une con­for­mi­té tota­le avec les exi­gen­ces en matiè­re d’ac­ce­s­si­bi­li­té, y com­pris la direc­ti­ve (UE) 2016/2102 du Par­le­ment euro­pé­en et du Con­seil et la direc­ti­ve (UE) 2019/882. Les four­nis­seurs dev­rai­ent assurer la con­for­mi­té avec ces exi­gen­ces dès la con­cep­ti­on. Par con­sé­quent, les mesu­res néces­saires dev­rai­ent être inté­g­rées autant que pos­si­ble dans la con­cep­ti­on du système d’IA à haut risque.

Artic­le 17 Système de gesti­on de la qualité

1. Les four­nis­seurs de systè­mes d’IA à haut ris­que doi­vent mett­re en place un système de gesti­on de la qua­li­té qui assu­re la con­for­mi­té avec le pré­sent règle­ment. Ce système doit être docu­men­té de maniè­re sys­té­ma­tique et ordon­née, sous la for­me de poli­ti­ques, de pro­cé­du­res et d’ins­truc­tions écri­tes, et doit com­prend­re au moins les aspects suivants :

(a) une stra­té­gie de con­for­mi­té régle­men­tai­re, y com­pris la con­for­mi­té aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té et aux pro­cé­du­res de gesti­on des modi­fi­ca­ti­ons appor­tées au système d’IA à haut risque ;

(b) tech­ni­ques, pro­cé­du­res et actions sys­té­ma­ti­ques à uti­li­ser pour la con­cep­ti­on, le con­trô­le de la con­cep­ti­on et la véri­fi­ca­ti­on de la con­cep­ti­on du système d’IA à haut risque ;

(c) tech­ni­ques, pro­cé­du­res et actions sys­té­ma­ti­ques à uti­li­ser pour le déve­lo­p­pe­ment, le con­trô­le et l’assu­rance qua­li­té du système IA à haut risque ;

(d) les pro­cé­du­res d’ex­amen, de test et de vali­da­ti­on à effec­tuer avant, pen­dant et après le déve­lo­p­pe­ment du système d’IA à haut ris­que, ain­si que la fré­quence à laquel­le elles doi­vent être effectuées ;

(e) les spé­ci­fi­ca­ti­ons tech­ni­ques, y com­pris les nor­mes, à appli­quer et, lorsque les nor­mes har­mo­ni­sées per­ti­nen­tes ne sont pas appli­quées dans leur inté­gra­li­té ou ne cou­vrent pas tou­tes les exi­gen­ces per­ti­nen­tes énon­cées à la sec­tion 2, les moy­ens à uti­li­ser pour garan­tir la con­for­mi­té du système IA à haut ris­que avec ces exigences ;

(f) les systè­mes et pro­cé­du­res de gesti­on des don­nées, y com­pris l’ac­qui­si­ti­on de don­nées, la coll­ec­te de don­nées, l’ana­ly­se de don­nées, l’é­ti­que­ta­ge de don­nées, le stocka­ge de don­nées, le fil­tra­ge de don­nées, l’ex­plo­ra­ti­on de don­nées, l’a­g­ré­ga­ti­on de don­nées, la con­ser­va­ti­on de don­nées et tou­te aut­re opé­ra­ti­on con­cer­nant les don­nées qui est effec­tuée avant et aux fins de la mise sur le mar­ché ou de la mise en ser­vice de systè­mes d’IA à haut risque ;

(g) le système de gesti­on des ris­ques visé à l’ar­tic­le 9 ;

(h) l’é­ta­blis­se­ment, la mise en œuvre et l’en­tre­ti­en d’un système de sur­veil­lan­ce après com­mer­cia­li­sa­ti­on, con­for­mé­ment à l’ar­tic­le 72 ;

(i) les pro­cé­du­res rela­ti­ves à la décla­ra­ti­on d’un inci­dent gra­ve con­for­mé­ment à l’ar­tic­le 73 ;

(j) la gesti­on des com­mu­ni­ca­ti­ons avec les auto­ri­tés natio­na­les com­pé­ten­tes, d’aut­res auto­ri­tés com­pé­ten­tes, y com­pris cel­les qui four­nis­sent ou sou­ti­en­nent l’ac­cès aux don­nées, des orga­nis­mes noti­fi­és, d’aut­res opé­ra­teurs, des cli­ents ou d’aut­res par­ties intéressées ;

(k) des systè­mes et des pro­cé­du­res de con­ser­va­ti­on de tou­te la docu­men­ta­ti­on et des infor­ma­ti­ons pertinentes ;

(l) la gesti­on des res­sour­ces, y com­pris les mesu­res liées à la sécu­ri­té des approvisionnements ;

(m) un cad­re de responsa­bi­li­sa­ti­on défi­nis­sant les responsa­bi­li­tés de la direc­tion et des aut­res mem­bres du per­son­nel en ce qui con­cer­ne tous les aspects énu­mé­rés dans le pré­sent paragraphe.

2. La mise en œuvre des aspects men­ti­onnés au para­gra­phe 1 est pro­por­ti­on­nel­le à la tail­le de l’or­ga­ni­sa­ti­on du pre­sta­tai­re. Les four­nis­seurs respec­tent, le cas échéant, le degré de rigueur et le niveau de pro­tec­tion requis pour assurer la con­for­mi­té de leurs systè­mes d’IA à haut ris­que avec le pré­sent règlement.

3. Les four­nis­seurs de systè­mes d’IA à haut ris­que qui sont sou­mis à des obli­ga­ti­ons rela­ti­ves à des systè­mes de gesti­on de la qua­li­té ou à une fonc­tion équi­va­len­te en ver­tu de la légis­la­ti­on sec­to­ri­el­le per­ti­nen­te de l’U­ni­on peu­vent inclu­re les aspects énu­mé­rés au para­gra­phe 1 dans le cad­re des systè­mes de gesti­on de la qua­li­té pré­vus par cet­te législation.

4. Pour les pre­sta­tai­res qui sont des éta­blis­se­ments finan­ciers sou­mis à des exi­gen­ces rela­ti­ves à leur gou­ver­nan­ce inter­ne, à leurs dis­po­si­ti­ons ou à leurs pro­cé­du­res en ver­tu de la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers, l’ob­li­ga­ti­on de mett­re en place un système de gesti­on de la qua­li­té, à l’ex­cep­ti­on du para­gra­phe 1, points (g), (h) et (i), du pré­sent artic­le, est répu­tée satis­fai­te par la con­for­mi­té aux règles rela­ti­ves aux dis­po­si­ti­ons ou pro­cé­du­res en matiè­re de gou­ver­nan­ce inter­ne pré­vues par la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers con­cer­née. À cet­te fin, il est tenu comp­te de tou­te nor­me har­mo­ni­sée visée à l’ar­tic­le 40.

(81) Le four­nis­seur dev­rait mett­re en place un système de gesti­on de la qua­li­té soli­de, assurer l’exé­cu­ti­on de la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té requi­se, ras­sem­bler la docu­men­ta­ti­on per­ti­nen­te et mett­re en place un système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on robu­ste. Les four­nis­seurs de systè­mes d’assu­rance qua­li­té à haut ris­que sou­mis aux obli­ga­ti­ons rela­ti­ves aux systè­mes de gesti­on de la qua­li­té en ver­tu de la légis­la­ti­on sec­to­ri­el­le per­ti­nen­te de l’U­ni­on dev­rai­ent avoir la pos­si­bi­li­té d’in­clu­re les élé­ments du système de gesti­on de la qua­li­té pré­vu par le pré­sent règle­ment dans le cad­re du système de gesti­on de la qua­li­té exi­stant pré­vu par cet­te aut­re légis­la­ti­on sec­to­ri­el­le de l’U­ni­on. La com­plé­men­ta­ri­té ent­re le pré­sent règle­ment et la légis­la­ti­on sec­to­ri­el­le exi­stan­te de l’U­ni­on dev­rait éga­le­ment être pri­se en comp­te dans les futures acti­vi­tés de nor­ma­li­sa­ti­on ou les ori­en­ta­ti­ons adop­tées par la Com­mis­si­on. Les auto­ri­tés publi­ques qui met­tent en ser­vice des systè­mes d’IA à haut ris­que pour leur pro­pre usa­ge peu­vent adop­ter et mett­re en œuvre les règles rela­ti­ves au système de gesti­on de la qua­li­té dans le cad­re du système de gesti­on de la qua­li­té adop­té au niveau natio­nal ou régio­nal, le cas échéant, en tenant comp­te des spé­ci­fi­ci­tés du sec­teur et des com­pé­ten­ces et de l’or­ga­ni­sa­ti­on de l’au­to­ri­té publi­que concernée.


Artic­le 18 Con­ser­va­ti­on de la documentation

1. Le four­nis­seur doit, pen­dant une péri­ode de 10 ans après que le système IA à haut ris­que a été mis sur le mar­ché ou mis en ser­vice, le con­ser­ver à la dis­po­si­ti­on des auto­ri­tés natio­na­les compétentes :

(a) la docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 11 ;

(b) la docu­men­ta­ti­on rela­ti­ve au système de gesti­on de la qua­li­té visé à l’ar­tic­le 17 ;

(c) la docu­men­ta­ti­on rela­ti­ve aux modi­fi­ca­ti­ons approu­vées par les orga­nis­mes noti­fi­és, le cas échéant ;

(d) les décis­i­ons et aut­res docu­ments émis par les orga­nis­mes noti­fi­és, le cas échéant ;

(e) la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47.

2. Chaque État membre déter­mi­ne les con­di­ti­ons dans les­quel­les la docu­men­ta­ti­on visée au para­gra­phe 1 reste à la dis­po­si­ti­on des auto­ri­tés natio­na­les com­pé­ten­tes pour la péri­ode indi­quée dans ce para­gra­phe en cas de fail­li­te ou de ces­sa­ti­on d’ac­ti­vi­té d’un four­nis­seur ou de son repré­sen­tant agréé éta­b­li sur son ter­ri­toire avant la fin de cet­te période.

3. Les pre­sta­tai­res qui sont des insti­tu­ti­ons finan­ciè­res sou­mi­ses à des exi­gen­ces con­cer­nant leur gou­ver­nan­ce inter­ne, leurs dis­po­si­ti­ons ou leurs pro­cé­du­res en ver­tu de la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers doi­vent con­ser­ver la docu­men­ta­ti­on tech­ni­que dans le cad­re de la docu­men­ta­ti­on con­ser­vée en ver­tu de la légis­la­ti­on per­ti­nen­te de l’U­ni­on sur les ser­vices financiers.

Artic­le 19 Jour­naux géné­rés automatiquement

1. Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­ser­vent les enre­gi­stre­ments visés à l’ar­tic­le 12, para­gra­phe 1, géné­rés auto­ma­ti­quement par leurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, dans la mesu­re où ces enre­gi­stre­ments sont sous leur con­trô­le. Sans pré­ju­di­ce du droit de l’U­ni­on ou du droit natio­nal appli­ca­ble, les enre­gi­stre­ments sont con­ser­vés pen­dant une péri­ode appro­priée à l’u­sa­ge pré­vu du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, d’au moins six mois, sauf dis­po­si­ti­on con­trai­re du droit de l’U­ni­on ou du droit natio­nal appli­ca­ble, en par­ti­cu­lier du droit de l’U­ni­on rela­tif à la pro­tec­tion des don­nées à carac­tère personnel.

2. Les four­nis­seurs qui sont des insti­tu­ti­ons finan­ciè­res sou­mi­ses à des exi­gen­ces con­cer­nant leur gou­ver­nan­ce inter­ne, leurs arran­ge­ments ou leurs pro­ce­s­sus en ver­tu de la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers doi­vent con­ser­ver les jour­naux géné­rés auto­ma­ti­quement par leurs systè­mes d’IA à haut ris­que dans le cad­re de la docu­men­ta­ti­on con­ser­vée en ver­tu de la légis­la­ti­on per­ti­nen­te sur les ser­vices financiers.

Artic­le 20 Actions cor­rec­ti­ves et obli­ga­ti­on d’information

1. Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui con­sidè­rent ou ont des rai­sons de con­sidé­rer qu’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qu’ils ont mis sur le mar­ché ou en ser­vice n’est pas con­for­me au pré­sent règle­ment doi­vent immé­dia­te­ment prend­re les mesu­res cor­rec­ti­ves néces­saires pour mett­re ce système en con­for­mi­té, le reti­rer, le désac­ti­ver ou le rap­pe­l­er, selon le cas. Ils infor­ment en con­sé­quence les dis­tri­bu­teurs du système d’alar­me à haut ris­que con­cer­né et, le cas échéant, les déployeurs, le repré­sen­tant agréé et les importateurs.

2. Si le système d’au­then­ti­fi­ca­ti­on à haut ris­que pré­sen­te un ris­que au sens de l’ar­tic­le 79, para­gra­phe 1, et si le four­nis­seur prend con­sci­ence de ce ris­que, il en exami­ne immé­dia­te­ment les cau­ses, en coopé­ra­ti­on avec le déclarant, le cas échéant, et infor­me les auto­ri­tés de sur­veil­lan­ce du mar­ché com­pé­ten­tes pour le système d’au­then­ti­fi­ca­ti­on à haut ris­que con­cer­né et, le cas échéant, l’or­ga­nis­me noti­fié qui a déli­v­ré un cer­ti­fi­cat pour ce système d’au­then­ti­fi­ca­ti­on à haut ris­que con­for­mé­ment à l’ar­tic­le 44, en par­ti­cu­lier de la natu­re de la non-con­for­mi­té et de tou­te mesu­re cor­rec­ti­ve per­ti­nen­te prise.

Artic­le 21 Coopé­ra­ti­on avec les auto­ri­tés compétentes

1. Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent, sur deman­de moti­vée d’u­ne auto­ri­té com­pé­ten­te, four­nir à cet­te auto­ri­té tou­tes les infor­ma­ti­ons et la docu­men­ta­ti­on néces­saires pour démon­trer la con­for­mi­té du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que avec les exi­gen­ces énon­cées à la sec­tion 2, dans une lan­gue qui peut être aisé­ment com­pri­se par l’au­to­ri­té dans l’u­ne des lan­gues offi­ci­el­les des insti­tu­ti­ons de l’U­ni­on tel­les qu’in­di­quées par l’É­tat membre concerné.

2. Sur deman­de moti­vée d’u­ne auto­ri­té com­pé­ten­te, les four­nis­seurs don­nent éga­le­ment à l’au­to­ri­té com­pé­ten­te requé­ran­te, le cas échéant, accès aux fichiers jour­naux géné­rés auto­ma­ti­quement par le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visé à l’ar­tic­le 12, para­gra­phe 1, dans la mesu­re où ces fichiers jour­naux sont sous leur contrôle.

3. Tou­te infor­ma­ti­on obte­nue par une auto­ri­té com­pé­ten­te en ver­tu du pré­sent artic­le est trai­tée con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té énon­cées à l’ar­tic­le 78.

Artic­le 22 Repré­sen­tants auto­ri­sés des four­nis­seurs de systè­mes d’IA à haut risque

1. Avant de mett­re leurs systè­mes d’IA à haut ris­que à dis­po­si­ti­on sur le mar­ché de l’U­ni­on, les four­nis­seurs étab­lis dans des pays tiers doi­vent, par man­dat écrit, dési­gner un repré­sen­tant auto­ri­sé éta­b­li dans l’Union.

2. Le four­nis­seur doit per­mett­re à son repré­sen­tant auto­ri­sé d’ac­com­plir les tâches spé­ci­fi­ées dans le man­dat reçu du fournisseur.

3. Le man­da­tai­re agréé exé­cu­te les tâches spé­ci­fi­ées dans le man­dat reçu du pre­sta­tai­re. Il four­nit sur deman­de une copie du man­dat aux auto­ri­tés de sur­veil­lan­ce du mar­ché, dans l’u­ne des lan­gues offi­ci­el­les des insti­tu­ti­ons de l’U­ni­on, com­me indi­qué par l’au­to­ri­té com­pé­ten­te. Aux fins du pré­sent règle­ment, le man­dat doit habi­li­ter le repré­sen­tant auto­ri­sé à effec­tuer les tâches suivantes :

(a) véri­fi­ent que la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 et la docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 11 ont été éta­b­lies et qu’u­ne pro­cé­du­re appro­priée d’éva­lua­ti­on de la con­for­mi­té a été effec­tuée par le fournisseur ;

(b) con­ser­vent à la dis­po­si­ti­on des auto­ri­tés com­pé­ten­tes et des auto­ri­tés ou orga­nis­mes nati­on­aux visés à l’ar­tic­le 74(10), pen­dant une péri­ode de dix ans après que le système IA à haut ris­que a été mis sur le mar­ché ou mis en ser­vice, les coor­don­nées du four­nis­seur qui a dési­gné le repré­sen­tant auto­ri­sé, une copie de la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47, la docu­men­ta­ti­on tech­ni­que et, le cas échéant, le cer­ti­fi­cat déli­v­ré par l’or­ga­nis­me notifié ;

(c) four­nir à une auto­ri­té com­pé­ten­te, sur deman­de moti­vée, tou­tes les infor­ma­ti­ons et tous les docu­ments, y com­pris ceux visés au point b) du pré­sent para­gra­phe, néces­saires pour démon­trer la con­for­mi­té d’un système d’in­for­ma­ti­on sur les ris­ques éle­vés avec les exi­gen­ces énon­cées à la sec­tion 2, y com­pris l’ac­cès aux fichiers jour­naux visés à l’ar­tic­le 12, para­gra­phe 1, géné­rés auto­ma­ti­quement par le système d’in­for­ma­ti­on sur les ris­ques éle­vés, à con­di­ti­on que ces fichiers jour­naux soi­ent sous le con­trô­le du fournisseur ;

(d) coopè­rent avec les auto­ri­tés com­pé­ten­tes, sur deman­de moti­vée, à tou­te action qu’el­les entre­pren­nent en rela­ti­on avec le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, en par­ti­cu­lier pour rédui­re et atté­nuer les ris­ques posés par le système d’in­tel­li­gence arti­fi­ci­el­le à haut risque ;

(e) le cas échéant, se con­for­mer aux obli­ga­ti­ons d’en­re­gi­stre­ment men­ti­onnées dans

Artic­le 49 (1), ou, si l’en­re­gi­stre­ment est effec­tué par le four­nis­seur lui-même, s’assurer que les infor­ma­ti­ons men­ti­onnées au point 3 de la sec­tion A de l’an­ne­xe VIII sont correctes.

Le man­dat doit per­mett­re au repré­sen­tant auto­ri­sé d’êt­re cont­ac­té, en plus ou à la place du four­nis­seur, par les auto­ri­tés com­pé­ten­tes pour tou­tes les que­sti­ons rela­ti­ves à la con­for­mi­té avec le pré­sent règlement.

4. Le repré­sen­tant auto­ri­sé met fin au man­dat s’il con­sidè­re ou a des rai­sons de con­sidé­rer que le pre­sta­tai­re agit con­trai­re­ment aux obli­ga­ti­ons qui lui incom­bent en ver­tu du pré­sent règle­ment. Dans ce cas, il infor­me immé­dia­te­ment l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née, ain­si que, le cas échéant, l’or­ga­nis­me noti­fié com­pé­tent, de la rési­lia­ti­on du man­dat et des rai­sons qui la motivent.

Artic­le 23 Obli­ga­ti­ons des importateurs

1. Avant de mett­re un système IA à haut ris­que sur le mar­ché, les impor­ta­teurs doi­vent s’assurer que le système est con­for­me au pré­sent règle­ment en le vérifiant :

(a) la pro­cé­du­re per­ti­nen­te d’éva­lua­ti­on de la con­for­mi­té men­ti­onnée à l’ar­tic­le 43 a été effec­tuée par le four­nis­seur du système d’alar­me à haut risque ;

(b) le four­nis­seur a éta­b­li la docu­men­ta­ti­on tech­ni­que con­for­mé­ment à l’ar­tic­le 11 et à l’an­ne­xe IV ;

(c) le système por­te le mar­quage CE requis et est accom­pa­gné de la décla­ra­ti­on de con­for­mi­té UE visée à l’ar­tic­le 47 et des ins­truc­tions d’utilisation ;

(d) le four­nis­seur a dési­gné un repré­sen­tant auto­ri­sé con­for­mé­ment à l’ar­tic­le 22(1).

2. Lorsqu’un impor­ta­teur a des rai­sons suf­fi­san­tes de pen­ser qu’un système d’alar­me à haut ris­que n’est pas con­for­me au pré­sent règle­ment, qu’il est fal­si­fié ou qu’il est accom­pa­gné d’u­ne docu­men­ta­ti­on fal­si­fi­ée, il ne met pas le système sur le mar­ché tant qu’il n’a pas été mis en con­for­mi­té. Si le système d’alar­me à haut ris­que pré­sen­te un ris­que au sens de l’ar­tic­le 79(1), l’im­por­ta­teur en infor­me le four­nis­seur du système, le repré­sen­tant agréé et les auto­ri­tés de sur­veil­lan­ce du marché.

3. Les impor­ta­teurs doi­vent indi­quer leur nom, leur nom com­mer­cial enre­gi­stré ou leur mar­que dépo­sée, ain­si que l’adres­se à laquel­le ils peu­vent être cont­ac­tés, sur le système IA à haut ris­que et sur son embal­la­ge ou sur la docu­men­ta­ti­on qui l’ac­com­pa­gne, le cas échéant.

4. Les impor­ta­teurs doi­vent s’assurer que, lorsqu’un système d’i­den­ti­fi­ca­ti­on auto­ma­tique à haut ris­que est sous leur responsa­bi­li­té, les con­di­ti­ons de stocka­ge ou de trans­port, le cas échéant, ne com­pro­met­tent pas sa con­for­mi­té avec les exi­gen­ces énon­cées à la sec­tion 2.

5. Les impor­ta­teurs con­ser­vent, pen­dant une péri­ode de 10 ans après que le système IA à haut ris­que a été mis sur le mar­ché ou mis en ser­vice, une copie du cer­ti­fi­cat déli­v­ré par l’or­ga­nis­me noti­fié, le cas échéant, des ins­truc­tions d’uti­li­sa­ti­on, et de la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47.

6. Les impor­ta­teurs four­nis­sent aux auto­ri­tés com­pé­ten­tes con­cer­nées, sur deman­de justi­fi­ée, tou­tes les infor­ma­ti­ons et la docu­men­ta­ti­on néces­saires, y com­pris cel­les men­ti­onnées au para­gra­phe 5, pour démon­trer la con­for­mi­té d’un système IA à haut ris­que avec les exi­gen­ces énon­cées à la sec­tion 2, dans une lan­gue aisé­ment com­pré­hen­si­ble par ces auto­ri­tés. À cet­te fin, ils veil­lent éga­le­ment à ce que la docu­men­ta­ti­on tech­ni­que pui­s­se être mise à la dis­po­si­ti­on de ces autorités.

7. Les impor­ta­teurs doi­vent coopé­rer avec les auto­ri­tés com­pé­ten­tes con­cer­nées pour tou­te action que ces auto­ri­tés entre­pren­drai­ent en rela­ti­on avec un système d’IA à haut ris­que mis sur le mar­ché par les impor­ta­teurs, en par­ti­cu­lier pour rédui­re et atté­nuer les ris­ques qu’il présente.

Artic­le 24 Obli­ga­ti­ons des distributeurs

1. Avant de mett­re à dis­po­si­ti­on sur le mar­ché un système d’alar­me à haut ris­que, les dis­tri­bu­teurs doi­vent véri­fier qu’il por­te le mar­quage CE requis, qu’il est accom­pa­gné d’u­ne copie de la décla­ra­ti­on de con­for­mi­té UE visée à l’ar­tic­le 47 et des ins­truc­tions d’uti­li­sa­ti­on, et que le four­nis­seur et l’im­por­ta­teur de ce système, le cas échéant, ont rem­pli leurs obli­ga­ti­ons respec­ti­ves tel­les que défi­nies à l’ar­tic­le 16, points (b) et (c) et à l’ar­tic­le 23(3).

2. Lorsqu’un dis­tri­bu­teur esti­me ou a des rai­sons d’e­sti­mer, sur la base des infor­ma­ti­ons en sa pos­ses­si­on, qu’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que n’est pas con­for­me aux exi­gen­ces énon­cées à la sec­tion 2, il ne met pas le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que à dis­po­si­ti­on sur le mar­ché tant que le système n’a pas été mis en con­for­mi­té avec ces exi­gen­ces. En out­re, si le système d’alar­me à haut ris­que pré­sen­te un ris­que au sens de l’ar­tic­le 79(1), le dis­tri­bu­teur doit en infor­mer le four­nis­seur ou l’im­por­ta­teur du système, le cas échéant, à cet effet.

3. Les dis­tri­bu­teurs doi­vent s’assurer que, lorsqu’un système d’alar­me à haut ris­que est sous leur responsa­bi­li­té, les con­di­ti­ons de stocka­ge ou de trans­port, le cas échéant, ne com­pro­met­tent pas la con­for­mi­té du système avec les exi­gen­ces énon­cées à la sec­tion 2.

4. Un Dis­tri­bu­teur qui con­sidè­re ou a des rai­sons de con­sidé­rer, sur la base des infor­ma­ti­ons con­te­nues dans son

pos­ses­si­on, un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qu’il a mis à dis­po­si­ti­on sur le mar­ché et qui n’est pas con­for­me aux exi­gen­ces énon­cées à la sec­tion 2, doit prend­re les mesu­res cor­rec­ti­ves néces­saires pour mett­re ce système en con­for­mi­té avec ces exi­gen­ces, le reti­rer ou le rap­pe­l­er, ou veil­ler à ce que le four­nis­seur, l’im­por­ta­teur ou tout aut­re opé­ra­teur con­cer­né, selon le cas, pren­ne ces mesu­res cor­rec­ti­ves. Si le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que pré­sen­te un ris­que au sens de l’ar­tic­le 79(1), le dis­tri­bu­teur infor­me immé­dia­te­ment le four­nis­seur ou l’im­por­ta­teur du système et les auto­ri­tés com­pé­ten­tes pour le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­cer­né, en don­nant des détails, en par­ti­cu­lier, sur la non-con­for­mi­té et sur tou­te mesu­re cor­rec­ti­ve prise.

5. Sur deman­de moti­vée d’u­ne auto­ri­té com­pé­ten­te, les dis­tri­bu­teurs d’un système d’alar­me à haut ris­que four­nis­sent à cet­te auto­ri­té tou­tes les infor­ma­ti­ons et la docu­men­ta­ti­on rela­ti­ves à leurs actions en ver­tu des para­gra­phes 1 à 4 néces­saires pour démon­trer la con­for­mi­té de ce système avec les exi­gen­ces énon­cées à la sec­tion 2.

6. Les Dis­tri­bu­teurs doi­vent coopé­rer avec les auto­ri­tés com­pé­ten­tes con­cer­nées pour tou­te action que ces auto­ri­tés entre­pren­drai­ent en rela­ti­on avec un système d’IA à haut ris­que mis à dis­po­si­ti­on sur le mar­ché par les Dis­tri­bu­teurs, en par­ti­cu­lier pour rédui­re ou atté­nuer le ris­que qu’il représente.

Artic­le 25 Responsa­bi­li­tés tout au long de la chaî­ne de valeur de l’IA

(83) Comp­te tenu de la natu­re et de la com­ple­xi­té de la chaî­ne de valeur des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et con­for­mé­ment au nou­veau cad­re légis­la­tif, il est essen­tiel d’assurer la sécu­ri­té juri­di­que et de faci­li­ter la con­for­mi­té avec le pré­sent règle­ment. Il est donc néces­saire de cla­ri­fier le rôle et les obli­ga­ti­ons spé­ci­fi­ques des opé­ra­teurs con­cer­nés le long de cet­te chaî­ne de valeur, tels que les impor­ta­teurs et les dis­tri­bu­teurs qui peu­vent con­tri­buer au déve­lo­p­pe­ment de systè­mes IA. Dans cer­tai­nes situa­tions, ces opé­ra­teurs pour­rai­ent agir dans plus d’un rôle à la fois et dev­rai­ent donc rem­plir cumu­la­ti­ve­ment tou­tes les obli­ga­ti­ons per­ti­nen­tes liées à ces rôles. Par exemp­le, un opé­ra­teur pour­rait agir à la fois com­me dis­tri­bu­teur et com­me importateur.

(88) Tout au long de la chaî­ne de valeur de l’IA, de mul­ti­ples par­ties four­nis­sent sou­vent des systè­mes, des outils et des ser­vices d’IA, mais aus­si des com­po­sants ou des pro­ce­s­sus qui sont inté­g­rés par le four­nis­seur dans le système d’IA avec dif­fér­ents objec­tifs, y com­pris la for­ma­ti­on des modè­les, la for­ma­ti­on con­ti­n­ue des modè­les, le test et l’éva­lua­ti­on des modè­les, l’in­té­gra­ti­on dans les logi­ciels ou d’aut­res aspects du déve­lo­p­pe­ment des modè­les. Ces par­ties ont un rôle important à jouer dans la chaî­ne de valeur vers le four­nis­seur du système d’IA à haut ris­que dans lequel leurs systè­mes, outils, ser­vices, com­po­sants ou pro­ce­s­sus d’IA sont inté­g­rés, et dev­rai­ent four­nir à ce four­nis­seur, par accord écrit, les infor­ma­ti­ons, les capa­ci­tés, l’ac­cès tech­ni­que et tou­te aut­re assi­stance néces­saires fon­dées sur l’é­tat de l’art géné­ra­le­ment recon­nu, afin de per­mett­re au four­nis­seur de se con­for­mer plei­ne­ment aux obli­ga­ti­ons énon­cées dans le pré­sent règle­ment, sans com­pro­mett­re leurs pro­pres droits de pro­prié­té intellec­tu­el­le ou secrets commerciaux.

1. Tout dis­tri­bu­teur, impor­ta­teur, déployeur ou aut­re tiers est con­sidé­ré com­me un four­nis­seur d’un système d’au­then­ti­fi­ca­ti­on à haut ris­que aux fins du pré­sent règle­ment et est sou­mis aux obli­ga­ti­ons du four­nis­seur visées à l’ar­tic­le 16, dans l’u­ne ou l’aut­re des cir­con­stances suivantes :

(a) ils appo­sent leur nom ou leur mar­que sur un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que déjà mis sur le mar­ché ou mis en ser­vice, sans pré­ju­di­ce des dis­po­si­ti­ons con­trac­tu­el­les sti­pu­lant que les obli­ga­ti­ons sont attri­buées autrement ;

(b) ils apportent une modi­fi­ca­ti­on sub­stan­ti­el­le à un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui a déjà été mis sur le mar­ché ou qui a déjà été mis en ser­vice de tel­le maniè­re qu’il reste un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment à l’ar­tic­le 6 ;

(c) ils modi­fi­ent l’ob­jec­tif pré­vu d’un système d’in­tel­li­gence arti­fi­ci­el­le, y com­pris un système d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, qui n’a pas été clas­sé à haut ris­que et qui a déjà été mis sur le mar­ché ou en ser­vice de tel­le maniè­re que le système d’in­tel­li­gence arti­fi­ci­el­le con­cer­né devi­ent un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment à l’ar­tic­le 6.

(84) Afin d’assurer la sécu­ri­té juri­di­que, il est néces­saire de pré­cis­er que, sous cer­tai­nes con­di­ti­ons spé­ci­fi­ques, tout dis­tri­bu­teur, impor­ta­teur, déployeur ou aut­re tiers dev­rait être con­sidé­ré com­me un four­nis­seur d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et assu­mer par con­sé­quent tou­tes les obli­ga­ti­ons per­ti­nen­tes. Ce serait le cas si cet­te par­tie appo­sait son nom ou sa mar­que sur un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que déjà mis sur le mar­ché ou en ser­vice, sans pré­ju­di­ce des dis­po­si­ti­ons con­trac­tu­el­les sti­pu­lant que les obli­ga­ti­ons sont attri­buées d’u­ne aut­re maniè­re. Ce serait éga­le­ment le cas si cet­te par­tie appor­te une modi­fi­ca­ti­on sub­stan­ti­el­le à un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui a déjà été mis sur le mar­ché ou mis en ser­vice de maniè­re à ce qu’il reste un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment au pré­sent règle­ment, ou si elle modi­fie l’ob­jec­tif pré­vu d’un système d’in­tel­li­gence arti­fi­ci­el­le, y com­pris un système d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral qui n’a pas été clas­sé com­me étant à haut ris­que et qui a déjà été mis sur le mar­ché ou mis en ser­vice, de maniè­re à ce que le système d’in­tel­li­gence arti­fi­ci­el­le devi­en­ne un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment au pré­sent règle­ment. Ces dis­po­si­ti­ons dev­rai­ent s’ap­pli­quer sans pré­ju­di­ce des dis­po­si­ti­ons plus spé­ci­fi­ques éta­b­lies dans cer­tai­nes légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on basées sur le nou­veau cad­re légis­la­tif, avec les­quel­les le pré­sent règle­ment dev­rait s’ap­pli­quer. Par exemp­le, l’ar­tic­le 16(2) du règle­ment (UE) 2017/745, qui éta­blit que cer­ta­ins chan­ge­ments ne doi­vent pas être con­sidé­rés com­me des modi­fi­ca­ti­ons d’un dis­po­si­tif sus­cep­ti­bles d’af­fec­ter sa con­for­mi­té aux exi­gen­ces appli­ca­bles, dev­rait con­tin­uer à s’ap­pli­quer aux systè­mes d’IA à haut ris­que qui sont des dis­po­si­tifs médi­caux au sens dudit règlement.

2. Lorsque les cir­con­stances visées au para­gra­phe 1 se pré­sen­tent, le four­nis­seur initi­al qui a mis le système d’au­then­ti­fi­ca­ti­on sur le mar­ché ou en ser­vice n’est plus con­sidé­ré com­me un four­nis­seur de ce système d’au­then­ti­fi­ca­ti­on spé­ci­fi­que aux fins du pré­sent règle­ment. Ce four­nis­seur initi­al coopè­re étroi­te­ment avec les nou­veaux four­nis­seurs et met à dis­po­si­ti­on les infor­ma­ti­ons néces­saires et four­nit l’ac­cès tech­ni­que et les aut­res for­mes d’as­si­stance rai­sonnablem­ent atten­dues qui sont néces­saires pour rem­plir les obli­ga­ti­ons pré­vues par le pré­sent règle­ment, en par­ti­cu­lier en ce qui con­cer­ne la con­for­mi­té avec l’éva­lua­ti­on de la con­for­mi­té des systè­mes IA à haut ris­que. Le pré­sent para­gra­phe ne s’ap­pli­que pas aux cas où le four­nis­seur initi­al a clai­re­ment indi­qué que son système d’IA n’est pas desti­né à être trans­for­mé en un système d’IA à haut ris­que et n’est donc pas sou­mis à l’ob­li­ga­ti­on de four­nir la documentation.

(86) Lorsque, dans les con­di­ti­ons pré­vues par le pré­sent règle­ment, le four­nis­seur qui a initia­le­ment mis le système d’in­tel­li­gence arti­fi­ci­el­le sur le mar­ché ou en ser­vice ne dev­rait plus être con­sidé­ré com­me le four­nis­seur aux fins du pré­sent règle­ment, et lorsque ce four­nis­seur n’a pas expres­sé­ment exclu la trans­for­ma­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le en un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, l’an­ci­en four­nis­seur dev­rait néan­mo­ins coopé­rer étroi­te­ment et four­nir les infor­ma­ti­ons néces­saires ain­si que l’ac­cès tech­ni­que et les aut­res for­mes d’as­si­stance rai­sonnablem­ent escomp­tées néces­saires pour satis­fai­re aux obli­ga­ti­ons pré­vues par le pré­sent règle­ment, en par­ti­cu­lier en ce qui con­cer­ne la con­for­mi­té à l’éva­lua­ti­on de la con­for­mi­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut risque.

3. Dans le cas de systè­mes d’alar­me à haut ris­que qui sont des com­po­sants de sécu­ri­té de pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée dans la sec­tion A de l’an­ne­xe I, le fab­ri­cant du pro­duit est con­sidé­ré com­me le four­nis­seur du système d’alar­me à haut ris­que et est sou­mis aux obli­ga­ti­ons pré­vues à l’ar­tic­le 16 dans l’u­ne ou l’aut­re des cir­con­stances suivantes :

(a) le système IA à haut ris­que est pla­cé sur le mar­ché avec le pro­duit sous le nom ou la mar­que du fab­ri­cant du produit ;

(b) le système IA à haut ris­que est mis en ser­vice sous le nom ou la mar­que du fab­ri­cant du pro­duit après que le pro­duit a été mis sur le marché.

(87) En out­re, lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui con­sti­tue un com­po­sant de sécu­ri­té d’un pro­duit rele­vant du champ d’ap­pli­ca­ti­on de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on basée sur le nou­veau cad­re légis­la­tif n’est pas mis sur le mar­ché ou mis en ser­vice indé­pen­dam­ment du pro­duit, le fab­ri­cant du pro­duit défi­ni dans cet­te légis­la­ti­on dev­rait se con­for­mer aux obli­ga­ti­ons du four­nis­seur éta­b­lies dans le pré­sent règle­ment et, en par­ti­cu­lier, s’assurer que le système d’in­tel­li­gence arti­fi­ci­el­le inté­g­ré dans le pro­duit final est con­for­me aux exi­gen­ces du pré­sent règlement.

4. Le four­nis­seur d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et le tiers qui four­nit un système d’in­tel­li­gence arti­fi­ci­el­le, des outils, des ser­vices, des com­po­sants ou des pro­ce­s­sus uti­li­sés ou inté­g­rés dans un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que pré­cis­ent, par accord écrit, les infor­ma­ti­ons, les capa­ci­tés, l’ac­cès tech­ni­que et les aut­res for­mes d’as­si­stance néces­saires, sur la base de l’é­tat de l’art géné­ra­le­ment recon­nu, afin de per­mett­re au four­nis­seur du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que de se con­for­mer plei­ne­ment aux obli­ga­ti­ons pré­vues par le pré­sent règle­ment. Le pré­sent para­gra­phe ne s’ap­pli­que pas aux tiers qui met­tent à la dis­po­si­ti­on du public des outils, des ser­vices, des pro­ce­s­sus ou des com­po­sants, aut­res que des modè­les d’IA à usa­ge géné­ral, sous une licence lib­re et ouverte.

L’AI Office peut éla­bo­rer et recom­man­der des modè­les de clau­ses volon­tai­res pour les cont­rats ent­re les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et les tiers qui four­nis­sent des outils, des ser­vices, des com­po­sants ou des pro­ce­s­sus uti­li­sés pour ou inté­g­rés dans des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. Lors de l’é­la­bo­ra­ti­on de ces modè­les volon­tai­res, le Bureau AI tien­dra comp­te des éven­tu­el­les exi­gen­ces con­trac­tu­el­les appli­ca­bles dans des sec­teurs ou des cas d’e­spè­ce. Les ter­mes du modè­le volon­tai­re doi­vent être publiés et mis à dis­po­si­ti­on gra­tui­te­ment dans un for­mat élec­tro­ni­que faci­le à utiliser.

(89) Les tiers qui ren­dent acce­s­si­bles au public des outils, ser­vices, pro­ce­s­sus ou com­po­sants d’IA aut­res que des modè­les d’IA à usa­ge géné­ral ne dev­rai­ent pas être tenus de se con­for­mer aux exi­gen­ces visa­nt les responsa­bi­li­tés le long de la chaî­ne de valeur de l’IA, en par­ti­cu­lier vis-à-vis du four­nis­seur qui les a uti­li­sés ou inté­g­rés, lorsque ces outils, ser­vices, pro­ce­s­sus ou com­po­sants d’IA sont ren­dus acce­s­si­bles sous une licence lib­re et ouver­te. Les déve­lo­p­peurs d’ou­tils, de ser­vices, de pro­ce­s­sus ou de com­po­sants d’IA libres et à source ouver­te aut­res que les modè­les d’IA à usa­ge géné­ral dev­rai­ent être encou­ra­gés à mett­re en œuvre des pra­ti­ques de docu­men­ta­ti­on lar­ge­ment adop­tées, tel­les que des car­tes de modè­les et des fiches de don­nées, com­me moy­en d’ac­cé­lé­rer le par­ta­ge d’in­for­ma­ti­ons le long de la chaî­ne de valeur de l’IA, per­met­tant la pro­mo­ti­on de systè­mes d’IA fia­bles dans l’Union.

(90) La Com­mis­si­on pour­rait éla­bo­rer et recom­man­der des modè­les de cont­rats volon­tai­res ent­re les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et les tiers qui four­nis­sent des outils, des ser­vices, des com­po­sants ou des pro­ce­s­sus uti­li­sés ou inté­g­rés dans des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, afin de faci­li­ter la coopé­ra­ti­on tout au long de la chaî­ne de valeur. Lors de l’é­la­bo­ra­ti­on de cont­rats types volon­tai­res, la Com­mis­si­on dev­rait éga­le­ment prend­re en con­sidé­ra­ti­on les éven­tu­el­les exi­gen­ces con­trac­tu­el­les appli­ca­bles dans des sec­teurs ou des cas d’espèce.

5. Les para­gra­phes 2 et 3 s’ap­pli­quent sans pré­ju­di­ce de la néces­si­té d’ob­ser­ver et de pro­té­ger les droits de pro­prié­té intellec­tu­el­le, les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les et les secrets com­mer­ci­aux con­for­mé­ment au droit de l’U­ni­on et au droit national.

Artic­le 26 Obli­ga­ti­ons des per­son­nes déployant des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut risque

(91) Comp­te tenu de la natu­re des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et des ris­ques pour la sécu­ri­té et les droits fon­da­men­taux éven­tu­el­le­ment asso­ciés à leur uti­li­sa­ti­on, y com­pris en ce qui con­cer­ne la néces­si­té d’assurer un sui­vi adé­quat des per­for­man­ces d’un système d’in­tel­li­gence arti­fi­ci­el­le dans un con­tex­te réel, il est appro­prié de défi­nir des responsa­bi­li­tés spé­ci­fi­ques pour les déployeurs. Les déployeurs dev­rai­ent en par­ti­cu­lier prend­re des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les appro­priées pour s’assurer qu’ils uti­li­sent les systè­mes d’IA à haut ris­que con­for­mé­ment aux ins­truc­tions d’uti­li­sa­ti­on et cer­tai­nes aut­res obli­ga­ti­ons dev­rai­ent être pré­vues en ce qui con­cer­ne le con­trô­le du fonc­tion­ne­ment des systè­mes d’IA et en ce qui con­cer­ne la tenue des regi­stres, le cas échéant. En out­re, les déployeurs dev­rai­ent veil­ler à ce que les per­son­nes char­gées de mett­re en œuvre les ins­truc­tions d’uti­li­sa­ti­on et la sur­veil­lan­ce humaine pré­vues par le pré­sent règle­ment dis­po­sent des com­pé­ten­ces néces­saires, notam­ment d’un niveau suf­fi­sant de cul­tu­re géné­ra­le, de for­ma­ti­on et d’au­to­ri­té, pour s’ac­quit­ter cor­rec­te­ment de ces tâches. Ces obli­ga­ti­ons ne dev­rai­ent pas por­ter pré­ju­di­ce aux aut­res obli­ga­ti­ons des déployeurs en matiè­re de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que en ver­tu du droit de l’U­ni­on ou du droit national.

(92) Le pré­sent règle­ment ne por­te pas att­ein­te aux obli­ga­ti­ons des employeurs d’in­for­mer ou d’in­for­mer et de con­sul­ter les tra­vail­leurs ou leurs repré­sen­tants en ver­tu de la légis­la­ti­on et de la pra­tique de l’U­ni­on ou natio­na­les, y com­pris la direc­ti­ve 2002/14/CE du Par­le­ment euro­pé­en et du Con­seil , sur les décis­i­ons de mett­re en ser­vice ou d’uti­li­ser des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Il reste néces­saire d’assurer l’in­for­ma­ti­on des tra­vail­leurs et de leurs repré­sen­tants sur le déploie­ment pré­vu de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sur le lieu de tra­vail lorsque les con­di­ti­ons de cet­te infor­ma­ti­on ou les obli­ga­ti­ons d’in­for­ma­ti­on et de con­sul­ta­ti­on pré­vues par d’aut­res instru­ments juri­di­ques ne sont pas rem­plies. En out­re, ce droit à l’in­for­ma­ti­on est acces­soire et néces­saire à l’ob­jec­tif de pro­tec­tion des droits fon­da­men­taux qui sous-tend ce règle­ment. Par con­sé­quent, une exi­gence d’in­for­ma­ti­on à cet effet dev­rait être pré­vue dans le pré­sent règle­ment, sans por­ter att­ein­te aux droits exi­stants des travailleurs.

1. Les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent prend­re les mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les appro­priées pour s’assurer qu’ils uti­li­sent ces systè­mes con­for­mé­ment aux ins­truc­tions d’uti­li­sa­ti­on qui les accom­pagn­ent, con­for­mé­ment aux para­gra­phes 3 et 6.

2. Les Déployeurs doi­vent con­fier la super­vi­si­on humaine à des per­son­nes phy­si­ques dis­po­sant des com­pé­ten­ces, de la for­ma­ti­on et de l’au­to­ri­té néces­saires, ain­si que de l’as­si­stance requise.

3. Les obli­ga­ti­ons énon­cées aux para­gra­phes 1 et 2 s’ap­pli­quent sans pré­ju­di­ce des aut­res obli­ga­ti­ons incom­bant au dét­a­ché en ver­tu du droit de l’U­ni­on ou du droit natio­nal et de la liber­té du dét­a­ché d’or­ga­ni­s­er ses pro­pres res­sour­ces et acti­vi­tés dans le but de mett­re en œuvre les mesu­res de super­vi­si­on humaine indi­quées par le fournisseur.

4. Sans pré­ju­di­ce des para­gra­phes 1 et 2, dans la mesu­re où le déployeur exer­ce un con­trô­le sur les don­nées d’en­trée, il s’assu­re que les don­nées d’en­trée sont per­ti­nen­tes et suf­fi­sam­ment repré­sen­ta­ti­ves comp­te tenu de l’ob­jec­tif visé par le système d’IA à haut risque.

5. Les déployeurs sur­veil­lent le fonc­tion­ne­ment du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sur la base des ins­truc­tions d’uti­li­sa­ti­on et, le cas échéant, infor­ment les four­nis­seurs con­for­mé­ment à l’ar­tic­le 72. Si les déployeurs ont des rai­sons de pen­ser que l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment aux ins­truc­tions peut avoir pour con­sé­quence que ce système pré­sen­te un ris­que au sens de l’ar­tic­le 79(1), ils en infor­ment sans délai le four­nis­seur ou le dis­tri­bu­teur et l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née et sus­pen­dent l’uti­li­sa­ti­on de ce système. Lorsque les déployeurs ont iden­ti­fié un inci­dent gra­ve, ils doi­vent éga­le­ment en infor­mer immé­dia­te­ment le four­nis­seur, puis l’im­por­ta­teur ou le dis­tri­bu­teur et les auto­ri­tés de sur­veil­lan­ce du mar­ché con­cer­nées. Si le déployeur n’est pas en mesu­re d’att­eind­re le four­nis­seur, l’ar­tic­le 73 s’ap­pli­que muta­tis mut­an­dis. Cet­te obli­ga­ti­on ne doit pas cou­vr­ir les don­nées opé­ra­ti­on­nel­les sen­si­bles des déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des auto­ri­tés char­gées de fai­re respec­ter la loi.

Pour les dét­a­chés qui sont des insti­tu­ti­ons finan­ciè­res sou­mi­ses à des exi­gen­ces con­cer­nant leur gou­ver­nan­ce inter­ne, leurs arran­ge­ments ou leurs pro­ce­s­sus en ver­tu de la légis­la­ti­on de l’U­ni­on rela­ti­ve aux ser­vices finan­ciers, l’ob­li­ga­ti­on de sur­veil­lan­ce pré­vue au pre­mier ali­néa est répu­tée satis­fai­te par la con­for­mi­té aux règles rela­ti­ves aux arran­ge­ments, pro­ce­s­sus et méca­nis­mes de gou­ver­nan­ce inter­ne pré­vues par la légis­la­ti­on per­ti­nen­te rela­ti­ve aux ser­vices financiers.

6. Les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent con­ser­ver les enre­gi­stre­ments géné­rés auto­ma­ti­quement par ce système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, dans la mesu­re où ces enre­gi­stre­ments sont sous leur con­trô­le, pen­dant une péri­ode appro­priée à l’u­sa­ge pré­vu du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, d’au moins six mois, sauf dis­po­si­ti­on con­trai­re du droit de l’U­ni­on ou du droit natio­nal appli­ca­ble, en par­ti­cu­lier du droit de l’U­ni­on rela­tif à la pro­tec­tion des don­nées à carac­tère personnel.

Les délé­gués qui sont des insti­tu­ti­ons finan­ciè­res sou­mi­ses à des exi­gen­ces con­cer­nant leur gou­ver­nan­ce inter­ne, leurs arran­ge­ments ou leurs pro­ce­s­sus en ver­tu de la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers doi­vent con­ser­ver les jour­naux en tant que par­tie de la docu­men­ta­ti­on con­ser­vée con­for­mé­ment à la légis­la­ti­on per­ti­nen­te de l’U­ni­on sur les ser­vices financiers.

7. Avant de mett­re en ser­vice ou d’uti­li­ser un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sur le lieu de tra­vail, les employeurs qui déta­chent des tra­vail­leurs doi­vent infor­mer les repré­sen­tants des tra­vail­leurs et les tra­vail­leurs con­cer­nés qu’ils seront sou­mis à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. Cet­te infor­ma­ti­on doit être four­nie, le cas échéant, con­for­mé­ment aux règles et pro­cé­du­res pré­vues par la légis­la­ti­on et la pra­tique de l’U­ni­on et des États mem­bres en matiè­re d’in­for­ma­ti­on des tra­vail­leurs et de leurs représentants.

8. Les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont des auto­ri­tés publi­ques ou des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on se con­for­ment aux obli­ga­ti­ons d’en­re­gi­stre­ment visées à l’ar­tic­le 49. Si ces déployeurs décou­vrent que le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qu’ils envis­agent d’uti­li­ser n’a pas été enre­gi­stré dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71, ils ne doi­vent pas uti­li­ser ce système et doi­vent en infor­mer le four­nis­seur ou le distributeur.

9. Le cas échéant, les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que uti­li­sent les infor­ma­ti­ons pré­vues à l’ar­tic­le 13 du pré­sent règle­ment pour se con­for­mer à leur obli­ga­ti­on d’ef­fec­tuer une éva­lua­ti­on de l’im­pact sur la pro­tec­tion des don­nées con­for­mé­ment à l’ar­tic­le 35 du règle­ment (UE) 2016/679 ou à l’ar­tic­le 27 de la direc­ti­ve (UE) 2016/680.

10. Sans pré­ju­di­ce de la direc­ti­ve (UE) 2016/680, dans le cad­re d’u­ne enquête visa­nt à la recher­che ciblée d’u­ne per­son­ne suspec­tée ou con­dam­née pour avoir com­mis une infrac­tion péna­le, le déployeur d’un système d’IA à haut ris­que pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se doit deman­der l’au­to­ri­sa­ti­on, ex ante ou sans délai et au plus tard dans les 48 heu­res, d’u­ne auto­ri­té judi­ciai­re ou admi­ni­stra­ti­ve dont la décis­i­on est con­traignan­te et sou­mi­se à un con­trô­le juri­dic­tion­nel, pour uti­li­ser ce système, sauf si celui-ci est uti­li­sé pour l’i­den­ti­fi­ca­ti­on initia­le d’un suspect poten­tiel sur la base d’é­lé­ments objec­tifs et véri­fi­a­bles direc­te­ment liés à l’in­frac­tion. Tou­te uti­li­sa­ti­on doit être limi­tée à ce qui est stric­te­ment néces­saire pour l’en­quête rela­ti­ve à une infrac­tion péna­le spécifique.

Si l’au­to­ri­sa­ti­on deman­dée en ver­tu du pre­mier ali­néa est reje­tée, l’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se lié à cet­te auto­ri­sa­ti­on deman­dée doit être arrê­tée avec effet immé­di­at et les don­nées à carac­tère per­son­nel liées à l’uti­li­sa­ti­on du système d’IA à haut ris­que pour lequel l’au­to­ri­sa­ti­on a été deman­dée doi­vent être supprimées.

En aucun cas, un tel système d’IA à haut ris­que pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se ne doit être uti­li­sé à des fins d’ap­pli­ca­ti­on de la loi d’u­ne maniè­re non ciblée, sans aucun lien avec une infrac­tion péna­le, une pro­cé­du­re péna­le, une men­ace réel­le et pré­sen­te ou réel­le et pré­vi­si­ble d’in­frac­tion péna­le, ou la recher­che d’u­ne per­son­ne spé­ci­fi­quement man­quan­te. Il con­vi­ent de veil­ler à ce qu’au­cu­ne décis­i­on pro­dui­sant un effet juri­di­que néga­tif sur une per­son­ne ne pui­s­se être pri­se par les auto­ri­tés char­gées de fai­re respec­ter la loi sur la seu­le base de la pro­duc­tion de ces systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remise.

Le pré­sent para­gra­phe s’ap­pli­que sans pré­ju­di­ce de l’ar­tic­le 9 du règle­ment (UE) 2016/679 et de l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680 pour le trai­te­ment des don­nées biométriques.

Quel qu’en soit l’ob­jet ou le déploie­ment, tou­te uti­li­sa­ti­on de ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doit être con­si­gnée dans le fichier de poli­ce per­ti­nent et être mise à la dis­po­si­ti­on de l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née et de l’au­to­ri­té natio­na­le char­gée de la pro­tec­tion des don­nées sur deman­de, à l’ex­cep­ti­on de la divul­ga­ti­on de don­nées opé­ra­ti­on­nel­les sen­si­bles rela­ti­ves à l’ap­pli­ca­ti­on de la loi. Le pré­sent para­gra­phe s’ap­pli­que sans pré­ju­di­ce des pou­voirs con­fé­rés par la direc­ti­ve (UE) 2016/680 aux auto­ri­tés de contrôle.

Les déployeurs sou­met­tent des rap­ports annu­els aux auto­ri­tés natio­na­les com­pé­ten­tes en matiè­re de sur­veil­lan­ce du mar­ché et de pro­tec­tion des don­nées sur leur uti­li­sa­ti­on des systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se, à l’ex­clu­si­on de la divul­ga­ti­on de don­nées opé­ra­ti­on­nel­les sen­si­bles liées à l’ap­pli­ca­ti­on de la loi. Les rap­ports peu­vent être agré­gés pour cou­vr­ir plus d’un déploiement.

Les États mem­bres peu­vent intro­dui­re, con­for­mé­ment à la légis­la­ti­on de l’U­ni­on, des lois plus rest­ric­ti­ves con­cer­nant l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remise.

(95) Sans pré­ju­di­ce du droit de l’U­ni­on appli­ca­ble, en par­ti­cu­lier du règle­ment (UE) 2016/679 et de la direc­ti­ve (UE) 2016/680, comp­te tenu du carac­tère intru­sif des systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se, l’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remi­se dev­rait être sou­mi­se à des garan­ties. Les systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance dev­rai­ent tou­jours être uti­li­sés de maniè­re pro­por­ti­onnée, légiti­me et stric­te­ment néces­saire, et donc ciblée, en ter­mes d’in­di­vi­dus à iden­ti­fier, de lieu, de por­tée tem­po­rel­le et sur la base d’un ensem­ble de don­nées fer­mé de séquen­ces vidéo léga­le­ment acqui­ses. En tout état de cau­se, les systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que post-remo­te ne dev­rai­ent pas être uti­li­sés dans le cad­re de l’ap­pli­ca­ti­on de la loi pour con­dui­re à une sur­veil­lan­ce indis­cri­mi­née. Les con­di­ti­ons de l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance ne dev­rai­ent en aucun cas four­nir une base per­met­tant de con­tour­ner les con­di­ti­ons de l’in­ter­dic­tion et des excep­ti­ons stric­tes pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance en temps réel.

11. Sans pré­ju­di­ce de l’ar­tic­le 50 du pré­sent règle­ment, les per­son­nes qui déploi­ent les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés à l’an­ne­xe III et qui pren­nent ou aident à prend­re des décis­i­ons con­cer­nant des per­son­nes phy­si­ques infor­ment ces per­son­nes phy­si­ques qu’el­les sont sou­mi­ses à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. L’ar­tic­le 13 de la direc­ti­ve (UE) 2016/680 s’ap­pli­que aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que uti­li­sés à des fins d’ap­pli­ca­ti­on de la loi.

(93) Alors que les ris­ques liés aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le peu­vent résul­ter de la maniè­re dont ces systè­mes sont con­çus, les ris­ques peu­vent éga­le­ment pro­ve­nir de la maniè­re dont ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont uti­li­sés. Les déployeurs de systè­mes d’IA à haut ris­que jouent donc un rôle cri­tique dans la garan­tie que les droits fon­da­men­taux sont pro­té­gés, en com­plé­ment des obli­ga­ti­ons du four­nis­seur lors du déve­lo­p­pe­ment du système d’IA. Les déployeurs sont les mieux pla­cés pour com­prend­re com­ment le système d’IA à haut ris­que sera con­crè­te­ment uti­li­sé et peu­vent donc iden­ti­fier des ris­ques poten­tiels importants qui n’a­vai­ent pas été pré­vus lors de la pha­se de déve­lo­p­pe­ment, grâ­ce à une con­nais­sance plus pré­cise du con­tex­te d’uti­li­sa­ti­on, des per­son­nes ou des grou­pes de per­son­nes sus­cep­ti­bles d’êt­re affec­tés, y com­pris les grou­pes vul­né­ra­bles. Les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que énu­mé­rés dans une anne­xe au pré­sent règle­ment jouent éga­le­ment un rôle essen­tiel dans l’in­for­ma­ti­on des per­son­nes phy­si­ques et dev­rai­ent, lorsqu’ils pren­nent des décis­i­ons ou aident à prend­re des décis­i­ons con­cer­nant des per­son­nes phy­si­ques, le cas échéant, infor­mer ces per­son­nes qu’el­les sont sou­mi­ses à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. Cet­te infor­ma­ti­on dev­rait inclu­re l’ob­jec­tif visé et le type de décis­i­ons qu’il prend. Le délé­gué doit éga­le­ment infor­mer les per­son­nes phy­si­ques de leur droit à l’ex­pli­ca­ti­on pré­vue par le pré­sent règle­ment. En ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que uti­li­sés à des fins d’ap­pli­ca­ti­on de la loi, cet­te obli­ga­ti­on dev­rait être mise en œuvre con­for­mé­ment à l’ar­tic­le 13 de la direc­ti­ve (UE) 2016/680.

12. Les déployeurs coopè­rent avec les auto­ri­tés com­pé­ten­tes con­cer­nées pour tou­te action de ces auto­ri­tés con­cer­nant le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que en vue de l’ap­pli­ca­ti­on du pré­sent règlement.

Artic­le 27 Éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux pour les systè­mes d’IA à haut risque

1. Avant de déployer un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visé à l’ar­tic­le 6, para­gra­phe 2, à l’ex­cep­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que desti­nés à être uti­li­sés dans la zone visée au point 2 de l’an­ne­xe III, les déployeurs qui sont des orga­nis­mes régis par le droit public ou des enti­tés pri­vées four­nis­sant des ser­vices publics, et les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés aux points 5 (b) et (c) de l’an­ne­xe III, doi­vent pro­cé­der à une éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux que l’uti­li­sa­ti­on de ce système peut pro­dui­re. A cet­te fin, les déployeurs doi­vent pro­cé­der à une éva­lua­ti­on con­si­stant en :

(a) une descrip­ti­on des pro­ce­s­sus du déployeur dans les­quels le système d’IA à haut ris­que sera uti­li­sé con­for­mé­ment à son objectif ;

(b) une descrip­ti­on de la péri­ode de temps au cours de laquel­le, et la fré­quence à laquel­le, chaque système IA à haut ris­que est desti­né à être utilisé ;

(c) les caté­go­ries de per­son­nes phy­si­ques et de grou­pes sus­cep­ti­bles d’êt­re affec­tés par son uti­li­sa­ti­on dans le con­tex­te spécifique ;

(d) les ris­ques spé­ci­fi­ques de pré­ju­di­ce sus­cep­ti­bles d’a­voir un impact sur les caté­go­ries de per­son­nes phy­si­ques ou les grou­pes de per­son­nes iden­ti­fi­és con­for­mé­ment au point (c) du pré­sent para­gra­phe, en tenant comp­te des infor­ma­ti­ons four­nies par le four­nis­seur con­for­mé­ment à l’ar­tic­le 13 ;

(e) une descrip­ti­on de la mise en œuvre des mesu­res de sur­veil­lan­ce humaine, con­for­mé­ment aux ins­truc­tions d’utilisation ;

(f) les mesu­res à prend­re en cas de maté­ria­li­sa­ti­on de ces ris­ques, y com­pris les dis­po­si­tifs de gou­ver­nan­ce inter­ne et les méca­nis­mes de recours.

2. L’ob­li­ga­ti­on énon­cée au para­gra­phe 1 s’ap­pli­que à la pre­miè­re uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que. Le déployeur peut, dans des cas simi­lai­res, se fon­der sur des éva­lua­tions d’im­pact sur les droits fon­da­men­taux réa­li­sées pré­cé­dem­ment ou sur des éva­lua­tions d’im­pact exi­stan­tes effec­tuées par le four­nis­seur. Si, au cours de l’uti­li­sa­ti­on du système d’IA à haut ris­que, le déployeur esti­me que l’un des élé­ments énu­mé­rés au para­gra­phe 1 a été modi­fié ou n’est plus à jour, le déployeur doit prend­re les mesu­res néces­saires pour mett­re à jour les informations.

3. Une fois que l’éva­lua­ti­on visée au para­gra­phe 1 du pré­sent artic­le a été effec­tuée, le déployeur noti­fie ses résul­tats à l’au­to­ri­té de sur­veil­lan­ce du mar­ché, en joignant à sa noti­fi­ca­ti­on le modè­le de fiche de sor­tie visé au para­gra­phe 5 du pré­sent artic­le. Dans le cas visé à l’ar­tic­le 46, para­gra­phe 1, le déclarant peut être exemp­té de cet­te obli­ga­ti­on de notification.

4. Si l’u­ne des obli­ga­ti­ons énon­cées dans le pré­sent artic­le est déjà rem­plie par l’éva­lua­ti­on de l’im­pact sur la pro­tec­tion des don­nées réa­li­sée con­for­mé­ment à l’ar­tic­le 35 du règle­ment (UE) 2016/679 ou à l’ar­tic­le 27 de la direc­ti­ve (UE) 2016/680, l’éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux men­ti­onnée au para­gra­phe 1 du pré­sent artic­le com­plè­te cet­te éva­lua­ti­on de l’im­pact sur la pro­tec­tion des données.

5. L’AI Office éla­bo­re un modè­le de que­sti­on­n­aire, y com­pris par le biais d’un outil auto­ma­ti­sé, afin de faci­li­ter le respect, par les per­son­nes dét­a­chées, des obli­ga­ti­ons qui leur incom­bent en ver­tu du pré­sent artic­le, de maniè­re simplifiée.

(96) Afin de garan­tir effi­ca­ce­ment la pro­tec­tion des droits fon­da­men­taux, les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont des enti­tés régies par le droit public ou des enti­tés pri­vées four­nis­sant des ser­vices publics et les déployeurs de cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que énu­mé­rés dans une anne­xe au pré­sent règle­ment, tels que les enti­tés ban­cai­res ou d’assu­rance, dev­rai­ent pro­cé­der à une éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux avant de les mett­re en œuvre. Les ser­vices importants pour les indi­vi­dus qui sont de natu­re publi­que peu­vent éga­le­ment être four­nis par des enti­tés pri­vées. Les enti­tés pri­vées four­nis­sant de tels ser­vices publics sont liées à des tâches d’in­té­rêt public, par exemp­le dans les domain­es de l’é­du­ca­ti­on, de la san­té, des ser­vices soci­aux, du loge­ment, de l’ad­mi­ni­stra­ti­on de la justi­ce. L’ob­jec­tif de l’éva­lua­ti­on d’im­pact sur les droits fon­da­men­taux est pour le déployeur d’i­den­ti­fier les ris­ques spé­ci­fi­ques pour les droits des indi­vi­dus ou des grou­pes d’in­di­vi­dus sus­cep­ti­bles d’êt­re affec­tés, d’i­den­ti­fier les mesu­res à prend­re en cas de maté­ria­li­sa­ti­on de ces ris­ques. L’éva­lua­ti­on d’im­pact dev­rait être effec­tuée avant le déploie­ment du système d’IA à haut ris­que et dev­rait être mise à jour lorsque le déployeur esti­me que l’un des fac­teurs per­tin­ents a chan­gé. L’éva­lua­ti­on d’im­pact dev­rait iden­ti­fier les pro­ce­s­sus per­tin­ents du déployeur dans les­quels le système d’IA à haut ris­que sera uti­li­sé con­for­mé­ment à son objec­tif, et dev­rait inclu­re une descrip­ti­on de la péri­ode de temps et de la fré­quence aux­quel­les le système est pré­vu d’êt­re uti­li­sé, ain­si que des caté­go­ries spé­ci­fi­ques de per­son­nes phy­si­ques et de grou­pes sus­cep­ti­bles d’êt­re affec­tés dans le con­tex­te spé­ci­fi­que de son utilisation.

L’éva­lua­ti­on dev­rait éga­le­ment inclu­re l’i­den­ti­fi­ca­ti­on des ris­ques spé­ci­fi­ques de pré­ju­di­ce sus­cep­ti­bles d’a­voir un impact sur les droits fon­da­men­taux de ces per­son­nes ou grou­pes. En effec­tu­ant cet­te éva­lua­ti­on, le déployeur dev­rait prend­re en comp­te les infor­ma­ti­ons per­ti­nen­tes pour une éva­lua­ti­on cor­rec­te de l’im­pact, y com­pris, mais sans s’y limi­ter, les infor­ma­ti­ons four­nies par le four­nis­seur du système IA à haut ris­que dans les ins­truc­tions d’uti­li­sa­ti­on. A la lumiè­re des ris­ques iden­ti­fi­és, les déployeurs dev­rai­ent déter­mi­ner les mesu­res à prend­re en cas de maté­ria­li­sa­ti­on de ces ris­ques, y com­pris, par exemp­le, les arran­ge­ments de gou­ver­nan­ce dans ce con­tex­te d’uti­li­sa­ti­on spé­ci­fi­que, tels que les arran­ge­ments pour la sur­veil­lan­ce humaine con­for­mé­ment aux ins­truc­tions d’uti­li­sa­ti­on ou, le trai­te­ment des plain­tes et les pro­cé­du­res de recours, car ils pour­rai­ent être instru­men­taux pour atté­nuer les ris­ques pour les droits fon­da­men­taux dans des cas d’uti­li­sa­ti­on con­crets. Après avoir effec­tué cet­te éva­lua­ti­on d’im­pact, le déployeur dev­rait infor­mer l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née. Le cas échéant, afin de recu­eil­lir les infor­ma­ti­ons per­ti­nen­tes néces­saires à la réa­li­sa­ti­on de l’éva­lua­ti­on d’im­pact, les déployeurs de systè­mes d’IA à haut ris­que, en par­ti­cu­lier lorsque les systè­mes d’IA sont uti­li­sés dans le sec­teur public, pour­rai­ent impli­quer les par­ties pren­an­tes con­cer­nées, y com­pris les repré­sen­tants des grou­pes de per­son­nes sus­cep­ti­bles d’êt­re affec­tées par le système d’IA, des experts indé­pen­dants et des orga­ni­sa­ti­ons de la socié­té civi­le dans la réa­li­sa­ti­on de ces éva­lua­tions d’im­pact et la con­cep­ti­on des mesu­res à prend­re en cas de maté­ria­li­sa­ti­on des ris­ques. Le Bureau euro­pé­en de l’in­tel­li­gence arti­fi­ci­el­le (AI Office) dev­rait éla­bo­rer un modè­le de que­sti­on­n­aire afin de faci­li­ter la con­for­mi­té et de rédui­re la char­ge admi­ni­stra­ti­ve pour les déployeurs.

Sec­tion 4 Auto­ri­tés de noti­fi­ca­ti­on et orga­nis­mes notifiés

Artic­le 28 Auto­ri­tés de notification

1. Chaque État membre dési­gne ou éta­blit au moins une auto­ri­té de noti­fi­ca­ti­on responsable de l’é­ta­blis­se­ment et de la mise en œuvre des pro­cé­du­res néces­saires à l’éva­lua­ti­on, à la dési­gna­ti­on et à la noti­fi­ca­ti­on des orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té, ain­si qu’au con­trô­le de ces orga­nis­mes. Ces pro­cé­du­res doi­vent être éla­bo­rées en coopé­ra­ti­on ent­re les auto­ri­tés de noti­fi­ca­ti­on de tous les États membres.

2. Les États mem­bres peu­vent déci­der que l’éva­lua­ti­on et le con­trô­le visés au para­gra­phe 1 sont effec­tués par un orga­nis­me natio­nal d’ac­cré­di­ta­ti­on au sens du règle­ment (CE) n° 765/2008 et con­for­mé­ment à celui-ci.

3. Les auto­ri­tés de noti­fi­ca­ti­on sont éta­b­lies, orga­ni­sées et fonc­tion­nent de maniè­re à évi­ter tout con­flit d’in­té­rêt avec les orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té et à garan­tir l’ob­jec­ti­vi­té et l’im­par­tia­li­té de leurs activités.

4. Les auto­ri­tés de noti­fi­ca­ti­on doi­vent être orga­ni­sées de tel­le sor­te que les décis­i­ons rela­ti­ves à la noti­fi­ca­ti­on des orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té soi­ent pri­ses par des per­son­nes com­pé­ten­tes dif­fé­ren­tes de cel­les qui ont pro­cé­dé à l’éva­lua­ti­on de ces organismes.

5. Les auto­ri­tés noti­fi­an­tes ne pro­po­sent ni ne four­nis­sent aucu­ne des acti­vi­tés que les orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té exer­cent, ni aucun des ser­vices de con­seil sur une base com­mer­cia­le ou concurrentielle.

6. Les auto­ri­tés noti­fi­an­tes garan­tis­sent la con­fi­den­tia­li­té des infor­ma­ti­ons qu’el­les obti­en­nent, con­for­mé­ment à l’ar­tic­le 78.

7. Les auto­ri­tés noti­fi­an­tes doi­vent dis­po­ser d’un per­son­nel com­pé­tent en nombre suf­fi­sant pour s’ac­quit­ter cor­rec­te­ment de leurs tâches. Le per­son­nel com­pé­tent doit dis­po­ser de l’ex­per­ti­se néces­saire, le cas échéant, pour sa fonc­tion, dans des domain­es tels que les tech­no­lo­gies de l’in­for­ma­ti­on, l’in­tel­li­gence arti­fi­ci­el­le et le droit, y com­pris la sur­veil­lan­ce des droits fondamentaux.

Artic­le 29 Appli­ca­ti­on d’un orga­nis­me d’éva­lua­ti­on de la con­for­mi­té à la notification

1. Les orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té sou­met­tent une deman­de de noti­fi­ca­ti­on à l’au­to­ri­té de noti­fi­ca­ti­on de l’É­tat membre dans lequel ils sont établis.

2. La deman­de de noti­fi­ca­ti­on est accom­pa­gnée d’u­ne descrip­ti­on des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té, du ou des modu­les d’éva­lua­ti­on de la con­for­mi­té et des types de systè­mes d’assu­rance qua­li­té pour les­quels l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té se décla­re com­pé­tent, ain­si que d’un cer­ti­fi­cat d’ac­cré­di­ta­ti­on, s’il en exi­ste un, déli­v­ré par un orga­nis­me natio­nal d’ac­cré­di­ta­ti­on atte­stant que l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té satis­fait aux exi­gen­ces énon­cées à l’ar­tic­le 31.

Tout docu­ment vali­de rela­tif aux dési­gna­ti­ons exi­stan­tes de l’or­ga­nis­me noti­fié deman­deur en ver­tu de tou­te aut­re légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on doit être ajouté.

3. Lorsque l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té con­cer­né n’est pas en mesu­re de déli­v­rer un cer­ti­fi­cat d’ac­cré­di­ta­ti­on, il four­nit à l’au­to­ri­té noti­fi­an­te tou­tes les preu­ves docu­men­tai­res néces­saires à la véri­fi­ca­ti­on, à la recon­nais­sance et au con­trô­le régu­lier de sa con­for­mi­té aux exi­gen­ces énon­cées à l’ar­tic­le 31.

4. Pour les orga­nis­mes noti­fi­és qui sont dési­gnés en ver­tu d’u­ne aut­re légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on, tous les docu­ments et cer­ti­fi­cats liés à ces dési­gna­ti­ons peu­vent être uti­li­sés, le cas échéant, à l’ap­pui de leur pro­cé­du­re de dési­gna­ti­on en ver­tu du pré­sent règle­ment. L’or­ga­nis­me noti­fié met à jour la docu­men­ta­ti­on visée aux para­gra­phes 2 et 3 du pré­sent artic­le chaque fois que des chan­ge­ments per­tin­ents inter­vi­en­nent, afin de per­mett­re à l’au­to­ri­té responsable des orga­nis­mes noti­fi­és de con­trô­ler et de véri­fier le respect per­ma­nent de tou­tes les exi­gen­ces énon­cées à l’ar­tic­le 31.

Artic­le 30 Pro­cé­du­re de notification

1. Les auto­ri­tés de noti­fi­ca­ti­on ne peu­vent noti­fier que les orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té qui ont satis­fait aux exi­gen­ces énon­cées à l’ar­tic­le 31.

2. Les auto­ri­tés de noti­fi­ca­ti­on noti­fi­ent à la Com­mis­si­on et aux aut­res États mem­bres, au moy­en de l’ou­til de noti­fi­ca­ti­on élec­tro­ni­que mis au point et géré par la Com­mis­si­on, chaque orga­nis­me d’éva­lua­ti­on de la con­for­mi­té visé au para­gra­phe 1.

3. La noti­fi­ca­ti­on visée au para­gra­phe 2 du pré­sent artic­le con­ti­ent des détails com­plets sur les acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té, le ou les modu­les d’éva­lua­ti­on de la con­for­mi­té, les types de systè­mes d’assu­rance qua­li­té con­cer­nés et l’at­te­sta­ti­on de com­pé­tence per­ti­nen­te. Lorsqu’u­ne noti­fi­ca­ti­on n’est pas fon­dée sur un cer­ti­fi­cat d’ac­cré­di­ta­ti­on tel que visé à l’ar­tic­le 29, para­gra­phe 2, l’au­to­ri­té noti­fi­an­te four­nit à la Com­mis­si­on et aux aut­res États mem­bres des preu­ves docu­men­tai­res atte­stant de la com­pé­tence de l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té et des dis­po­si­ti­ons mises en place pour assurer que cet orga­nis­me fait l’ob­jet d’un sui­vi régu­lier et con­ti­n­ue de satis­fai­re aux exi­gen­ces énon­cées à l’ar­tic­le 31.

4. L’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té con­cer­né ne peut exer­cer les acti­vi­tés d’un orga­nis­me noti­fié que si aucu­ne objec­tion n’est sou­le­vée par la Com­mis­si­on ou les aut­res États mem­bres dans un délai de deux semain­es à comp­ter de la noti­fi­ca­ti­on par une auto­ri­té noti­fi­an­te si elle com­prend un cer­ti­fi­cat d’ac­cré­di­ta­ti­on visé à l’ar­tic­le 29(2), ou dans un délai de deux mois à comp­ter de la noti­fi­ca­ti­on par l’au­to­ri­té noti­fi­an­te si elle com­prend des preu­ves docu­men­tai­res visées à l’ar­tic­le 29(3).

5. Lorsque des objec­tions sont sou­le­vées, la Com­mis­si­on ent­a­me sans délai des con­sul­ta­ti­ons avec les États mem­bres con­cer­nés et l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té. En con­sé­quence, la Com­mis­si­on déci­de si l’au­to­ri­sa­ti­on est justi­fi­ée. La Com­mis­si­on com­mu­ni­que sa décis­i­on à l’É­tat membre con­cer­né et à l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té compétent.

Artic­le 31 Exi­gen­ces rela­ti­ves aux orga­nis­mes notifiés

1. Un orga­nis­me noti­fié doit être éta­b­li en ver­tu du droit natio­nal d’un État membre et doit avoir la per­son­na­li­té juridique.

2. Les orga­nis­mes noti­fi­és doi­vent satis­fai­re aux exi­gen­ces en matiè­re d’or­ga­ni­sa­ti­on, de gesti­on de la qua­li­té, de res­sour­ces et de pro­ce­s­sus qui sont néces­saires à l’ac­com­plis­se­ment de leurs tâches, ain­si qu’à des exi­gen­ces de cyber­sé­cu­ri­té appropriées.

3. La struc­tu­re orga­ni­sa­ti­on­nel­le, l’at­tri­bu­ti­on des responsa­bi­li­tés, les lignes direc­tri­ces en matiè­re de rap­ports et le fonc­tion­ne­ment des orga­nis­mes noti­fi­és doi­vent garan­tir la con­fi­ance dans leurs per­for­man­ces et dans les résul­tats des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té qu’ils mènent.

4. Les orga­nis­mes noti­fi­és doi­vent être indé­pen­dants du four­nis­seur d’un système d’assu­rance qua­li­té à haut ris­que par rap­port auquel ils effec­tu­ent des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té. Les orga­nis­mes noti­fi­és doi­vent éga­le­ment être indé­pen­dants de tout aut­re opé­ra­teur ayant un inté­rêt éco­no­mi­que dans les systè­mes d’IA à haut ris­que éva­lués, ain­si que de tout con­cur­rent du four­nis­seur. Cela n’empêche pas l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que éva­lués qui sont néces­saires aux opé­ra­ti­ons de l’or­ga­nis­me d’éva­lua­ti­on de la con­for­mi­té, ni l’uti­li­sa­ti­on de ces systè­mes à haut ris­que à des fins personnelles.

5. Ni un orga­nis­me d’éva­lua­ti­on de la con­for­mi­té, ni ses cad­res supé­ri­eurs, ni le per­son­nel responsable de l’exé­cu­ti­on de ses tâches d’éva­lua­ti­on de la con­for­mi­té ne doi­vent être direc­te­ment impli­qués dans la con­cep­ti­on, le déve­lo­p­pe­ment, la com­mer­cia­li­sa­ti­on ou l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, ni repré­sen­ter les par­ties enga­gées dans ces acti­vi­tés. Ils ne doi­vent s’en­ga­ger dans aucu­ne acti­vi­té sus­cep­ti­ble de por­ter att­ein­te à leur indé­pen­dance de juge­ment ou à leur inté­gri­té en ce qui con­cer­ne les acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té pour les­quel­les ils sont noti­fi­és. Cela s’ap­pli­que en par­ti­cu­lier aux ser­vices de conseil.

6. Les orga­nis­mes noti­fi­és doi­vent être orga­ni­sés et fonc­tion­ner de maniè­re à garan­tir l’in­dé­pen­dance, l’ob­jec­ti­vi­té et l’im­par­tia­li­té de leurs acti­vi­tés. Les orga­nis­mes noti­fi­és doi­vent docu­men­ter et mett­re en œuvre une struc­tu­re et des pro­cé­du­res visa­nt à garan­tir l’im­par­tia­li­té et à pro­mou­voir et appli­quer les prin­cipes d’im­par­tia­li­té tout au long de leur orga­ni­sa­ti­on, de leur per­son­nel et de leurs acti­vi­tés d’évaluation.

7. Les orga­nis­mes noti­fi­és doi­vent mett­re en place des pro­cé­du­res docu­men­tées garan­tis­sant que leur per­son­nel, leurs comi­tés, leurs filia­les, leurs sous-trai­tants et tout orga­nis­me asso­cié ou per­son­nel d’or­ga­nis­mes exté­ri­eurs main­ti­en­nent, con­for­mé­ment à l’ar­tic­le 78, la con­fi­den­tia­li­té des infor­ma­ti­ons dont ils dis­po­sent au cours de l’exé­cu­ti­on des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té, sauf si leur divul­ga­ti­on est requi­se par la loi. Le per­son­nel des orga­nis­mes noti­fi­és est tenu d’ob­ser­ver le secret pro­fes­si­on­nel à l’é­gard de tou­te infor­ma­ti­on obte­nue dans l’exé­cu­ti­on de ses tâches en ver­tu du pré­sent règle­ment, sauf à l’é­gard des auto­ri­tés noti­fi­an­tes de l’É­tat membre dans lequel ses acti­vi­tés sont exercées.

8. Les orga­nis­mes noti­fi­és doi­vent avoir des pro­cé­du­res d’exé­cu­ti­on des acti­vi­tés qui tien­nent dûment comp­te de la tail­le d’un pre­sta­tai­re, du sec­teur dans lequel il opère,

sa struc­tu­re, et le degré de com­ple­xi­té du système IA concerné.

9. Les orga­nis­mes noti­fi­és pren­nent une assu­rance responsa­bi­li­té appro­priée pour leurs acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té, sauf si cet­te responsa­bi­li­té est assu­mée par l’É­tat membre dans lequel ils sont étab­lis con­for­mé­ment à la légis­la­ti­on natio­na­le ou si cet État membre est lui-même direc­te­ment responsable de l’éva­lua­ti­on de la conformité.

10. Les orga­nis­mes noti­fi­és doi­vent être en mesu­re d’exé­cu­ter tou­tes les tâches qui leur incom­bent en ver­tu du pré­sent règle­ment avec le plus haut degré d’in­té­gri­té pro­fes­si­on­nel­le et les com­pé­ten­ces requi­ses dans le domaine spé­ci­fi­que, que ces tâches soi­ent exé­cu­tées par les orga­nis­mes noti­fi­és eux-mêmes ou en leur nom et sous leur responsabilité.

11. Les orga­nis­mes noti­fi­és doi­vent dis­po­ser de com­pé­ten­ces inter­nes suf­fi­san­tes pour être en mesu­re d’éva­luer effi­ca­ce­ment les tâches effec­tuées par des par­ties exter­nes en leur nom. L’or­ga­nis­me noti­fié doit dis­po­ser en per­ma­nence d’un per­son­nel admi­ni­stra­tif, tech­ni­que, juri­di­que et sci­en­ti­fi­que suf­fi­sant, ayant l’expé­ri­ence et les con­nais­sances des types de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, de don­nées et d’in­for­ma­tique con­cer­nés, et des exi­gen­ces énon­cées à la sec­tion 2.

12. Les orga­nis­mes noti­fi­és par­ti­ci­pent aux acti­vi­tés de coor­di­na­ti­on visées à l’ar­tic­le 38. Ils par­ti­ci­pent éga­le­ment, direc­te­ment ou par l’in­ter­mé­di­ai­re de repré­sen­tants, aux orga­ni­sa­ti­ons euro­pé­en­nes de nor­ma­li­sa­ti­on ou veil­lent à ce qu’ils soi­ent infor­més et à jour en ce qui con­cer­ne les nor­mes pertinentes.

Artic­le 32 Pré­somp­ti­on de con­for­mi­té aux exi­gen­ces rela­ti­ves aux orga­nis­mes notifiés

Lorsqu’un orga­nis­me d’éva­lua­ti­on de la con­for­mi­té démont­re sa con­for­mi­té aux critères énon­cés dans les nor­mes har­mo­ni­sées per­ti­nen­tes ou dans des par­ties de cel­les-ci, dont les réfé­ren­ces ont été publiées au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne, il est pré­su­mé satis­fai­re aux exi­gen­ces énon­cées à l’ar­tic­le 31, dans la mesu­re où les nor­mes har­mo­ni­sées appli­ca­bles cou­vrent ces exigences.

Artic­le 33 Sub­si­di­ai­res des orga­nis­mes noti­fi­és et sous-traitance

1. Lorsqu’un orga­nis­me noti­fié sous-trai­te des tâches spé­ci­fi­ques liées à l’éva­lua­ti­on de la con­for­mi­té ou a recours à une filia­le, il s’assu­re que le sous-trai­tant ou la filia­le respec­te les exi­gen­ces énon­cées à l’ar­tic­le 31 et en infor­me l’au­to­ri­té notifiante.

2. Les orga­nis­mes noti­fi­és assu­ment l’en­tiè­re responsa­bi­li­té des tâches exé­cu­tées par tout sous-trai­tant ou tou­te filiale.

3. Les acti­vi­tés ne peu­vent être sous-trai­tées ou exé­cu­tées par une filia­le qu’a­vec l’ac­cord du four­nis­seur. Les orga­nis­mes noti­fi­és doi­vent mett­re à la dis­po­si­ti­on du public une liste de leurs filiales.

4. Les docu­ments per­tin­ents con­cer­nant l’éva­lua­ti­on des qua­li­fi­ca­ti­ons du sous-trai­tant ou de la filia­le et les travaux effec­tués par ceux-ci en ver­tu du pré­sent règle­ment sont con­ser­vés par l’au­to­ri­té de noti­fi­ca­ti­on pen­dant une péri­ode de cinq ans à comp­ter de la date d’ex­pi­ra­ti­on du cont­rat de sous-traitance.

Artic­le 34 Obli­ga­ti­ons opé­ra­ti­on­nel­les des orga­nis­mes notifiés

1. Les orga­nis­mes noti­fi­és doi­vent véri­fier la con­for­mi­té des systè­mes d’alar­me à haut ris­que con­for­mé­ment aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té pré­vues à l’ar­tic­le 43.

2. Les orga­nis­mes noti­fi­és évi­tent d’im­po­ser des char­ges inu­tiles aux pre­sta­tai­res dans l’e­xer­ci­ce de leurs acti­vi­tés et tien­nent dûment comp­te de la tail­le du pre­sta­tai­re, du sec­teur dans lequel il opè­re, de sa struc­tu­re et du degré de com­ple­xi­té du système d’assu­rance à haut ris­que con­cer­né, notam­ment en vue de rédui­re au mini­mum les char­ges admi­ni­stra­ti­ves et les coûts de mise en con­for­mi­té pour les micro et peti­tes ent­re­pri­ses au sens de la recom­man­da­ti­on 2003/361/CE. L’or­ga­nis­me noti­fié doit néan­mo­ins respec­ter le degré de rigueur et le niveau de pro­tec­tion requis pour la con­for­mi­té du système d’assu­rance à haut ris­que avec les exi­gen­ces du pré­sent règlement.

3. Les orga­nis­mes noti­fi­és met­tent à la dis­po­si­ti­on de l’au­to­ri­té noti­fi­an­te visée à l’ar­tic­le 28, et lui sou­met­tent sur deman­de, tou­te la docu­men­ta­ti­on per­ti­nen­te, y com­pris cel­le des four­nis­seurs, afin de per­mett­re à cet­te auto­ri­té de mener à bien ses acti­vi­tés d’éva­lua­ti­on, de dési­gna­ti­on, de noti­fi­ca­ti­on et de sui­vi, et de faci­li­ter l’éva­lua­ti­on visée dans la pré­sen­te section.

Artic­le 35 Numé­ros d’i­den­ti­fi­ca­ti­on et listes des orga­nis­mes notifiés

1. La Com­mis­si­on attri­bue un numé­ro d’i­den­ti­fi­ca­ti­on uni­que à chaque orga­nis­me noti­fié, même si un orga­nis­me est noti­fié en ver­tu de plus d’un acte de l’Union.

2. La Com­mis­si­on met à la dis­po­si­ti­on du public la liste des orga­nis­mes noti­fi­és en ver­tu du pré­sent règle­ment, y com­pris leur numé­ro d’i­den­ti­fi­ca­ti­on et les acti­vi­tés pour les­quel­les ils ont été noti­fi­és. La Com­mis­si­on veil­le à ce que cet­te liste soit tenue à jour.

Artic­le 36 Modi­fi­ca­ti­ons des notifications

1. L’au­to­ri­té noti­fi­an­te infor­me la Com­mis­si­on et les aut­res États mem­bres de tou­te modi­fi­ca­ti­on per­ti­nen­te de la noti­fi­ca­ti­on d’un orga­nis­me noti­fié au moy­en de l’ou­til de noti­fi­ca­ti­on élec­tro­ni­que visé à l’ar­tic­le 30, para­gra­phe 2.

2. Les pro­cé­du­res pré­vues aux artic­les 29 et 30 s’ap­pli­quent aux exten­si­ons de la por­tée de la notification.

Pour les modi­fi­ca­ti­ons appor­tées à la noti­fi­ca­ti­on aut­res que les exten­si­ons de son champ d’ap­pli­ca­ti­on, les pro­cé­du­res pré­vues aux para­gra­phes (3) à (9) s’appliquent.

3. Lorsqu’un orga­nis­me noti­fié déci­de d’in­ter­romp­re ses acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té, il en infor­me l’au­to­ri­té de noti­fi­ca­ti­on et les four­nis­seurs con­cer­nés dès que pos­si­ble et, dans le cas d’u­ne ces­sa­ti­on pré­vue, au moins un an avant de ces­ser ses acti­vi­tés. Les cer­ti­fi­cats de l’or­ga­nis­me noti­fié peu­vent rester val­ables pen­dant une péri­ode de neuf mois après la ces­sa­ti­on des acti­vi­tés de l’or­ga­nis­me noti­fié, à con­di­ti­on qu’un aut­re orga­nis­me noti­fié ait con­fir­mé par écrit qu’il assu­mera des responsa­bi­li­tés pour les systè­mes IA à haut ris­que cou­verts par ces cer­ti­fi­cats. L’or­ga­nis­me noti­fié sui­vant doit pro­cé­der à une éva­lua­ti­on com­plè­te des systè­mes d’IA à haut ris­que affec­tés à la fin de cet­te péri­ode de neuf mois avant de déli­v­rer de nou­veaux cer­ti­fi­cats pour ces systè­mes. Si l’or­ga­nis­me noti­fié a ces­sé ses acti­vi­tés, l’au­to­ri­té de noti­fi­ca­ti­on reti­re la désignation.

4. Lorsqu’u­ne auto­ri­té noti­fi­an­te a des rai­sons suf­fi­san­tes de pen­ser qu’un orga­nis­me noti­fié ne satis­fait plus aux exi­gen­ces énon­cées à l’ar­tic­le 31 ou qu’il ne rem­plit pas ses obli­ga­ti­ons, elle exami­ne la que­sti­on avec la plus gran­de dili­gence et sans délai. Dans ce con­tex­te, elle infor­me l’or­ga­nis­me noti­fié con­cer­né des objec­tions sou­le­vées et lui don­ne la pos­si­bi­li­té de fai­re con­naît­re son point de vue. Si l’au­to­ri­té de noti­fi­ca­ti­on par­vi­ent à la con­clu­si­on que l’or­ga­nis­me noti­fié ne satis­fait plus aux exi­gen­ces énon­cées à l’ar­tic­le 31 ou qu’il ne rem­plit pas ses obli­ga­ti­ons, elle limi­te, sus­pend ou reti­re la dési­gna­ti­on, selon le cas, en fonc­tion de la gra­vi­té de l’in­ca­pa­ci­té à satis­fai­re à ces exi­gen­ces ou à rem­plir ces obli­ga­ti­ons. Il en infor­me immé­dia­te­ment la Com­mis­si­on et les aut­res États membres.

5. Si sa dési­gna­ti­on a été sus­pen­due, rest­rein­te ou reti­rée en tout ou en par­tie, l’or­ga­nis­me noti­fié en infor­me les four­nis­seurs con­cer­nés dans un délai de 10 jours.

6. En cas de rest­ric­tion, de sus­pen­si­on ou de retrait d’u­ne dési­gna­ti­on, l’au­to­ri­té de noti­fi­ca­ti­on prend les mesu­res appro­priées pour assurer la con­ser­va­ti­on des dos­siers de l’or­ga­nis­me noti­fié con­cer­né et les mett­re à la dis­po­si­ti­on des auto­ri­tés de noti­fi­ca­ti­on d’aut­res États mem­bres et des auto­ri­tés de sur­veil­lan­ce du mar­ché, à leur demande.

7. En cas de rest­ric­tion, de sus­pen­si­on ou de retrait d’u­ne dési­gna­ti­on, l’au­to­ri­té noti­fi­an­te doit

(a) éva­luer l’im­pact sur les cer­ti­fi­cats déli­v­rés par l’or­ga­nis­me notifié ;

(b) sou­met un rap­port sur ses con­clu­si­ons à la Com­mis­si­on et aux aut­res États mem­bres dans un délai de trois mois à comp­ter de la noti­fi­ca­ti­on des modi­fi­ca­ti­ons appor­tées à la désignation ;

(c) exi­ger de l’or­ga­nis­me noti­fié qu’il sus­pen­de ou reti­re, dans un délai rai­sonnable fixé par l’au­to­ri­té, tout cer­ti­fi­cat qui a été déli­v­ré de maniè­re irré­gu­liè­re, afin d’assurer la con­for­mi­té con­ti­n­ue des systè­mes IA à haut ris­que sur le marché ;

(d) infor­me la Com­mis­si­on et les États mem­bres des cer­ti­fi­cats de sus­pen­si­on ou de retrait qu’il a exigés ;

(e) four­nis­sent aux auto­ri­tés natio­na­les com­pé­ten­tes de l’É­tat membre dans lequel le four­nis­seur a son siè­ge social tou­tes les infor­ma­ti­ons per­ti­nen­tes con­cer­nant les cer­ti­fi­cats dont il a deman­dé la sus­pen­si­on ou le retrait ; cet­te auto­ri­té prend les mesu­res appro­priées, le cas échéant, pour évi­ter tout ris­que poten­tiel pour la san­té, la sécu­ri­té ou les droits fondamentaux.

8. A l’ex­cep­ti­on des cer­ti­fi­cats non déli­v­rés et des cas où une dési­gna­ti­on a été sus­pen­due ou limi­tée, les cer­ti­fi­cats restent val­ables dans l’u­ne des cir­con­stances suivantes :

(a) l’au­to­ri­té de noti­fi­ca­ti­on a con­fir­mé, dans un délai d’un mois à comp­ter de la sus­pen­si­on ou de la rest­ric­tion, qu’il n’y a pas de ris­que pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux en ce qui con­cer­ne les cer­ti­fi­cats con­cer­nés par la sus­pen­si­on ou la rest­ric­tion, et l’au­to­ri­té de noti­fi­ca­ti­on a éta­b­li un cal­en­drier d’ac­tions pour remé­dier à la sus­pen­si­on ou à la rest­ric­tion ; ou

(b) l’au­to­ri­té noti­fi­an­te a con­fir­mé qu’au­cun cer­ti­fi­cat per­ti­nent pour la sus­pen­si­on ne sera émis, modi­fié ou réé­di­té pen­dant la durée de la sus­pen­si­on ou de la rest­ric­tion, et indi­que si l’or­ga­nis­me noti­fié a la capa­ci­té de con­tin­uer à sur­veil­ler et à rester responsable des cer­ti­fi­cats exi­stants émis pen­dant la durée de la sus­pen­si­on ou de la rest­ric­tion ; dans le cas où l’au­to­ri­té de noti­fi­ca­ti­on déter­mi­ne que l’or­ga­nis­me noti­fié n’a pas la capa­ci­té de prend­re en char­ge les cer­ti­fi­cats émis exi­stants, le four­nis­seur du système cou­vert par le cer­ti­fi­cat doit con­firm­er par écrit aux auto­ri­tés natio­na­les com­pé­ten­tes de l’É­tat membre dans lequel il a son siè­ge d’ex­plo­ita­ti­on enre­gi­stré, dans un délai de trois mois à comp­ter de la sus­pen­si­on ou de la rest­ric­tion, qu’un aut­re orga­nis­me noti­fié qua­li­fié assu­me tem­po­rai­re­ment les fonc­tions de l’or­ga­nis­me noti­fié pour sur­veil­ler et rester responsable des cer­ti­fi­cats pen­dant la péri­ode de sus­pen­si­on ou de restriction.

9. A l’ex­cep­ti­on des cer­ti­fi­cats non déli­v­rés et des cas où une dési­gna­ti­on a été reti­rée, les cer­ti­fi­cats restent val­ables pen­dant une péri­ode de neuf mois dans les con­di­ti­ons suivantes :

(a) l’au­to­ri­té natio­na­le com­pé­ten­te de l’É­tat membre dans lequel le four­nis­seur du système d’IA à haut ris­que cou­vert par le cer­ti­fi­cat a son siè­ge social a con­fir­mé qu’il n’e­xi­ste aucun ris­que pour la san­té, la sécu­ri­té ou les droits fon­da­men­taux asso­cié aux systè­mes d’IA à haut ris­que con­cer­nés ; et

(b) un aut­re orga­nis­me noti­fié a con­fir­mé par écrit qu’il assu­mera immé­dia­te­ment la responsa­bi­li­té de ces systè­mes IA et qu’il achè­ve­ra son éva­lua­ti­on dans les 12 mois sui­vant le retrait de la désignation.

Dans les cir­con­stances visées au pre­mier ali­néa, l’au­to­ri­té natio­na­le com­pé­ten­te de l’É­tat membre dans lequel le pre­sta­tai­re du système cou­vert par le cer­ti­fi­cat a son siè­ge d’ex­plo­ita­ti­on peut pro­ro­ger la vali­di­té pro­vi­so­i­re des cer­ti­fi­cats pour des péri­odes sup­p­lé­men­tai­res de trois mois, qui ne peu­vent excé­der dou­ze mois au total.

L’au­to­ri­té natio­na­le com­pé­ten­te ou l’or­ga­nis­me noti­fié qui assu­me les fonc­tions de l’or­ga­nis­me noti­fié con­cer­né par le chan­ge­ment de dési­gna­ti­on en infor­me immé­dia­te­ment la Com­mis­si­on, les aut­res États mem­bres et les aut­res orga­nis­mes notifiés.

Artic­le 37 Chall­enge to the com­pe­tence of noti­fi­ed bodies

1. La Com­mis­si­on exami­ne, si néces­saire, tous les cas où il y a des rai­sons de dou­ter de la com­pé­tence d’un orga­nis­me noti­fié ou du main­ti­en par un orga­nis­me noti­fié du respect des exi­gen­ces énon­cées à l’ar­tic­le 31 et de ses responsa­bi­li­tés applicables.

2. L’au­to­ri­té noti­fi­an­te doit, sur deman­de, four­nir à la Com­mis­si­on tou­tes les infor­ma­ti­ons per­ti­nen­tes rela­ti­ves à la noti­fi­ca­ti­on ou au main­ti­en de la com­pé­tence de l’or­ga­nis­me noti­fié concerné.

3. La Com­mis­si­on veil­le à ce que tou­tes les infor­ma­ti­ons sen­si­bles obte­nues dans le cad­re des enquêtes qu’el­le mène en ver­tu du pré­sent artic­le soi­ent trai­tées de maniè­re con­fi­den­ti­el­le, con­for­mé­ment à l’ar­tic­le 78.

4. Si la Com­mis­si­on con­sta­te qu’un orga­nis­me noti­fié ne satis­fait pas ou ne satis­fait plus aux exi­gen­ces de sa noti­fi­ca­ti­on, elle en infor­me l’É­tat membre qui a fait la noti­fi­ca­ti­on et lui deman­de de prend­re les mesu­res cor­rec­ti­ves néces­saires, y com­pris, le cas échéant, la sus­pen­si­on ou le retrait de la noti­fi­ca­ti­on. Si l’É­tat membre ne prend pas les mesu­res cor­rec­ti­ves néces­saires, la Com­mis­si­on peut, au moy­en d’un acte d’exé­cu­ti­on, sus­pend­re, rest­reind­re ou reti­rer la dési­gna­ti­on. Cet acte d’exé­cu­ti­on est adop­té con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

Artic­le 38 Coor­di­na­ti­on des orga­nis­mes notifiés

1. La Com­mis­si­on veil­le à ce que, en ce qui con­cer­ne les systè­mes d’assu­rance qua­li­té à haut ris­que, une coor­di­na­ti­on et une coopé­ra­ti­on appro­priées ent­re les orga­nis­mes noti­fi­és par­ti­ci­pant aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té en ver­tu du pré­sent règle­ment soi­ent mises en place et fonc­tion­nent cor­rec­te­ment sous la for­me d’un grou­pe sec­to­ri­el d’or­ga­nis­mes notifiés.

2. Chaque auto­ri­té noti­fi­an­te veil­le à ce que les orga­nis­mes qu’el­le a noti­fi­és par­ti­ci­pent aux travaux d’un grou­pe visé au para­gra­phe 1, direc­te­ment ou par l’in­ter­mé­di­ai­re de repré­sen­tants désignés.

3. La Com­mis­si­on doit assurer l’é­ch­an­ge de con­nais­sances et de bon­nes pra­ti­ques ent­re les auto­ri­tés de notification.

Artic­le 39 Orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té des pays tiers

Les orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té étab­lis en ver­tu de la légis­la­ti­on d’un pays tiers avec lequel l’U­ni­on a con­clu un accord peu­vent être auto­ri­sés à exer­cer les acti­vi­tés des orga­nis­mes noti­fi­és en ver­tu du pré­sent règle­ment, à con­di­ti­on qu’ils satis­fas­sent aux exi­gen­ces énon­cées à l’ar­tic­le 31 ou qu’ils assu­rent un niveau de con­for­mi­té équivalent.

Sec­tion 5 Nor­mes Éva­lua­ti­on de la con­for­mi­té Cer­ti­fi­cats Enregistrement

Artic­le 40 Nor­mes har­mo­ni­sées et liv­ra­bles de normalisation

1. Les systè­mes IA à haut ris­que ou les modè­les IA à usa­ge géné­ral qui sont con­for­mes à des nor­mes har­mo­ni­sées ou à des par­ties de ces nor­mes dont les réfé­ren­ces ont été publiées au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne con­for­mé­ment au règle­ment (UE) no 1025/2012 sont pré­su­més con­for­mes aux exi­gen­ces énon­cées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, aux obli­ga­ti­ons énon­cées au cha­pit­re V, sec­tions 2 et 3, du pré­sent règle­ment, dans la mesu­re où ces nor­mes cou­vrent ces exi­gen­ces ou obligations.

2. Con­for­mé­ment à l’ar­tic­le 10 du règle­ment (UE) (n°) 1025/2012, la Com­mis­si­on émet, sans délai, des deman­des de nor­ma­li­sa­ti­on couvrant tou­tes les exi­gen­ces énon­cées à la sec­tion 2 du pré­sent cha­pit­re et, le cas échéant, des deman­des de nor­ma­li­sa­ti­on couvrant les obli­ga­ti­ons énon­cées au cha­pit­re V, sec­tions 2 et 3, du pré­sent règle­ment. La deman­de de nor­ma­li­sa­ti­on doit éga­le­ment por­ter sur des élé­ments liv­ra­bles con­cer­nant les pro­ce­s­sus de rap­port et de docu­men­ta­ti­on visa­nt à amé­lio­rer les per­for­man­ces des systè­mes d’in­tel­li­gence arti­fi­ci­el­le en matiè­re de res­sour­ces, tels que la réduc­tion de la con­som­ma­ti­on d’é­ner­gie et d’aut­res res­sour­ces des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que au cours de leur cycle de vie, ain­si que sur le déve­lo­p­pe­ment à fai­ble con­som­ma­ti­on d’é­ner­gie de modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral. Lors de l’é­la­bo­ra­ti­on d’u­ne deman­de de nor­ma­li­sa­ti­on, la Com­mis­si­on doit con­sul­ter le Con­seil et les par­ties pren­an­tes con­cer­nées, y com­pris le forum consultatif.

Lorsqu’el­le adres­se une deman­de de nor­ma­li­sa­ti­on aux orga­nis­mes euro­pé­ens de nor­ma­li­sa­ti­on, la Com­mis­si­on pré­cise que les nor­mes doi­vent être clai­res, cohé­ren­tes, y com­pris avec les nor­mes éla­bo­rées dans les dif­fér­ents sec­teurs pour les pro­duits cou­verts par l’ac­tu­el­le légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I, et viser à garan­tir que les systè­mes d’IA à haut ris­que ou les modè­les d’IA à usa­ge géné­ral mis sur le mar­ché ou en ser­vice dans l’U­ni­on satis­font aux exi­gen­ces ou obli­ga­ti­ons per­ti­nen­tes énon­cées dans le pré­sent règlement.

La Com­mis­si­on peut deman­der aux orga­nis­mes euro­pé­ens de nor­ma­li­sa­ti­on de four­nir la preuve de leurs meil­leurs efforts pour att­eind­re les objec­tifs men­ti­onnés aux pre­mier et deu­xiè­me ali­né­as du pré­sent para­gra­phe, con­for­mé­ment à l’ar­tic­le 24 du règle­ment (UE) no 1025/2012.

3. Les par­ti­ci­pan­ts au pro­ce­s­sus de nor­ma­li­sa­ti­on s’ef­for­cent de pro­mou­voir l’in­ve­stis­se­ment et l’in­no­va­ti­on dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le, notam­ment en amé­lio­rant la sécu­ri­té juri­di­que, ain­si que la com­pé­ti­ti­vi­té et la crois­sance du mar­ché de l’U­ni­on, de con­tri­buer au ren­force­ment de la coopé­ra­ti­on mon­dia­le en matiè­re de nor­ma­li­sa­ti­on et à la pri­se en comp­te des nor­mes inter­na­tio­na­les exi­stan­tes dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le qui sont com­pa­ti­bles avec les valeurs, les droits fon­da­men­taux et les inté­rêts de l’U­ni­on, et d’a­mé­lio­rer la gou­ver­nan­ce mul­ti­par­ti­te en assu­rant une repré­sen­ta­ti­on équi­li­brée des inté­rêts et la par­ti­ci­pa­ti­on effec­ti­ve de tou­tes les par­ties pren­an­tes con­cer­nées, con­for­mé­ment aux artic­les 5, 6 et 7 du règle­ment (UE) n° 1025/2012.

Artic­le 41 Spé­ci­fi­ca­ti­ons communes

1. La Com­mis­si­on peut adop­ter, mett­re en œuvre des actes éta­blis­sant des spé­ci­fi­ca­ti­ons com­mu­nes pour les exi­gen­ces énon­cées à la sec­tion 2 o

f du pré­sent cha­pit­re ou, le cas échéant, pour les obli­ga­ti­ons énon­cées aux sec­tions 2 et 3 du cha­pit­re V si les con­di­ti­ons sui­van­tes ont été remplies :

(a) la Com­mis­si­on a deman­dé, con­for­mé­ment à l’ar­tic­le 10, para­gra­phe 1, du règle­ment (UE) n° 1025/2012, à un ou plu­sieurs orga­nis­mes euro­pé­ens de nor­ma­li­sa­ti­on de rédi­ger une nor­me har­mo­ni­sée pour les exi­gen­ces énon­cées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, pour les obli­ga­ti­ons énon­cées aux sec­tions 2 et 3 du cha­pit­re V, et :

(i) la deman­de n’a pas été accep­tée par l’un des orga­nis­mes euro­pé­ens de nor­ma­li­sa­ti­on ; ou

(ii) les nor­mes har­mo­ni­sées répond­ant à cet­te deman­de ne sont pas liv­rées dans le délai fixé con­for­mé­ment à l’ar­tic­le 10, para­gra­phe 1, du règle­ment (UE) n° 1025/2012 ; ou

(iii) the rele­vant har­mo­ni­s­ed stan­dards insuf­fi­ci­ent­ly address fun­da­men­tal rights con­cerns ; or

(iv) the har­mo­ni­s­ed stan­dards do not com­ply with the request ; and

(b) aucu­ne réfé­rence à des nor­mes har­mo­ni­sées couvrant les exi­gen­ces visées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, les obli­ga­ti­ons visées aux sec­tions 2 et 3 du cha­pit­re V n’a été publiée au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne con­for­mé­ment au règle­ment (UE) no 1025/2012, et aucu­ne réfé­rence de ce type ne dev­rait être publiée dans un délai raisonnable.

Lors de l’é­la­bo­ra­ti­on des spé­ci­fi­ca­ti­ons com­mu­nes, la Com­mis­si­on con­sul­te le forum con­sul­ta­tif visé à l’ar­tic­le 67.

Les actes d’exé­cu­ti­on men­ti­onnés au pre­mier ali­néa du pré­sent para­gra­phe sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

2. Avant d’é­la­bo­rer un pro­jet d’ac­te d’exé­cu­ti­on, la Com­mis­si­on infor­me le comi­té visé à l’ar­tic­le 22 du règle­ment (UE) no 1025/2012 qu’el­le esti­me que les con­di­ti­ons énon­cées au para­gra­phe 1 du pré­sent artic­le sont remplies.

3. Les systè­mes IA à haut ris­que ou les modè­les IA à usa­ge géné­ral qui sont con­for­mes aux spé­ci­fi­ca­ti­ons com­mu­nes visées au para­gra­phe 1, ou à des par­ties de ces spé­ci­fi­ca­ti­ons, sont répu­tés con­for­mes aux exi­gen­ces énon­cées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, aux obli­ga­ti­ons énon­cées aux sec­tions 2 et 3 du cha­pit­re V, dans la mesu­re où ces spé­ci­fi­ca­ti­ons com­mu­nes cou­vrent ces exi­gen­ces ou ces obligations.

4. Lorsqu’u­ne nor­me har­mo­ni­sée est adop­tée par un orga­nis­me euro­pé­en de nor­ma­li­sa­ti­on et pro­po­sée à la Com­mis­si­on en vue de la publi­ca­ti­on de sa réfé­rence au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne, la Com­mis­si­on éva­lue la nor­me har­mo­ni­sée con­for­mé­ment au règle­ment (UE) n° 1025/2012. Lorsqu’u­ne réfé­rence à une nor­me har­mo­ni­sée est publiée au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne, la Com­mis­si­on réitère les actes d’exé­cu­ti­on visés au para­gra­phe 1 ou les par­ties de ceux-ci qui cou­vrent les mêmes exi­gen­ces que cel­les énon­cées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, les mêmes obli­ga­ti­ons que cel­les énon­cées aux sec­tions 2 et 3 du cha­pit­re V.

5. Lorsque les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que ou de modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral ne respec­tent pas les spé­ci­fi­ca­ti­ons com­mu­nes visées au para­gra­phe 1, ils justi­fi­ent dûment qu’ils ont adop­té des solu­ti­ons tech­ni­ques qui satis­font aux exi­gen­ces visées à la sec­tion 2 du pré­sent cha­pit­re ou, le cas échéant, qu’ils se con­for­ment aux obli­ga­ti­ons énon­cées aux sec­tions 2 et 3 du cha­pit­re V à un niveau au moins équi­va­lent à celles-ci.

6. Lorsqu’un État membre esti­me qu’u­ne spé­ci­fi­ca­ti­on com­mu­ne ne satis­fait pas entiè­re­ment aux exi­gen­ces énon­cées à la sec­tion 2 ou, le cas échéant, qu’el­le ne respec­te pas les obli­ga­ti­ons énon­cées aux sec­tions 2 et 3 du cha­pit­re V, il en infor­me la Com­mis­si­on en lui four­nis­sant une expli­ca­ti­on détail­lée. La Com­mis­si­on éva­lue cet­te infor­ma­ti­on et, le cas échéant, modi­fie l’ac­te d’exé­cu­ti­on éta­blis­sant la spé­ci­fi­ca­ti­on com­mu­ne concernée.

Artic­le 42 Pré­somp­ti­on de con­for­mi­té à cer­tai­nes exigences

1. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui ont été for­més et testés sur des don­nées reflé­tant le con­tex­te géo­gra­phi­que, com­porte­men­tal, con­tex­tu­el ou fonc­tion­nel spé­ci­fi­que dans lequel ils sont desti­nés à être uti­li­sés doi­vent être pré­su­més con­for­mes aux exi­gen­ces per­ti­nen­tes énon­cées à l’ar­tic­le 10(4).

2. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui ont été cer­ti­fi­és ou pour les­quels une décla­ra­ti­on de con­for­mi­té a été déli­v­rée en ver­tu d’un régime de cyber­sé­cu­ri­té con­for­mé­ment au règle­ment (UE) 2019/881 et dont les réfé­ren­ces ont été publiées au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne sont pré­su­més con­for­mes aux exi­gen­ces de cyber­sé­cu­ri­té énon­cées à l’ar­tic­le 15 du pré­sent règle­ment, dans la mesu­re où le cer­ti­fi­cat de cyber­sé­cu­ri­té ou la décla­ra­ti­on de con­for­mi­té ou des par­ties de ceux-ci cou­vrent ces exigences.

(122) Il con­vi­ent que, sans pré­ju­di­ce de l’uti­li­sa­ti­on de nor­mes har­mo­ni­sées et de spé­ci­fi­ca­ti­ons com­mu­nes, les four­nis­seurs d’un système d’IA à haut ris­que qui a été for­mé et testé sur des don­nées reflé­tant l’en­vi­ron­ne­ment géo­gra­phi­que, com­porte­men­tal, con­tex­tu­el ou fonc­tion­nel spé­ci­fi­que dans lequel le système d’IA est desti­né à être uti­li­sé, soi­ent cen­sés se con­for­mer à la mesu­re per­ti­nen­te pré­vue dans le cad­re de l’e­xi­gence de gou­ver­nan­ce des don­nées énon­cée dans le pré­sent règle­ment. Sans pré­ju­di­ce des exi­gen­ces rela­ti­ves à la robust­es­se et à l’e­xac­ti­tu­de énon­cées dans le pré­sent règle­ment, con­for­mé­ment à l’ar­tic­le 54, para­gra­phe 3, du règle­ment (UE) 2019/881, les systè­mes d’IA à haut ris­que qui ont été cer­ti­fi­és ou pour les­quels une décla­ra­ti­on de con­for­mi­té a été déli­v­rée dans le cad­re d’un régime de cyber­sé­cu­ri­té con­for­mé­ment au pré­sent règle­ment et dont les réfé­ren­ces ont été publiées au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne dev­rai­ent être pré­su­més con­for­mes à l’e­xi­gence de cyber­sé­cu­ri­té du pré­sent règle­ment, dans la mesu­re où le cer­ti­fi­cat de cyber­sé­cu­ri­té ou la décla­ra­ti­on de con­for­mi­té ou des par­ties de ceux-ci cou­vrent l’e­xi­gence de cyber­sé­cu­ri­té du pré­sent règle­ment. Cela reste sans pré­ju­di­ce de la natu­re volon­tai­re de ce régime de cybersécurité.

Artic­le 43 Éva­lua­ti­on de la conformité

(123) Afin d’assurer un haut niveau de fia­bi­li­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, ces systè­mes dev­rai­ent être sou­mis à une éva­lua­ti­on de con­for­mi­té avant leur mise sur le mar­ché ou leur mise en service.

1. Pour les systè­mes d’alar­me à haut ris­que énu­mé­rés au point 1 de l’an­ne­xe III, lorsque, pour démon­trer la con­for­mi­té d’un système d’alar­me à haut ris­que aux exi­gen­ces énon­cées à la sec­tion 2, le four­nis­seur a appli­qué des nor­mes har­mo­ni­sées visées à l’ar­tic­le 40 ou, le cas échéant, des spé­ci­fi­ca­ti­ons com­mu­nes visées à l’ar­tic­le 41, le four­nis­seur doit opter pour l’u­ne des pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té sui­van­tes, fon­dées sur :

(a) le con­trô­le inter­ne visé à l’an­ne­xe VI ; ou

(b) l’éva­lua­ti­on du système de gesti­on de la qua­li­té et l’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que, avec la par­ti­ci­pa­ti­on d’un orga­nis­me noti­fié, men­ti­onné à l’an­ne­xe VII.

Pour démon­trer la con­for­mi­té d’un système IA à haut ris­que avec les exi­gen­ces énon­cées à la sec­tion 2, le four­nis­seur doit sui­v­re la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té pré­vue à l’an­ne­xe VII où :

(a) les nor­mes har­mo­ni­sées visées à l’ar­tic­le 40 n’e­xi­stent pas et les spé­ci­fi­ca­ti­ons com­mu­nes visées à l’ar­tic­le 41 ne sont pas disponibles ;

(b) le pre­sta­tai­re n’a pas appli­qué, ou n’a appli­qué que par­ti­el­le­ment, la nor­me harmonisée ;

(c) les spé­ci­fi­ca­ti­ons com­mu­nes men­ti­onnées au point (a) exi­stent, mais le four­nis­seur ne les a pas appliquées ;

(d) une ou plu­sieurs des nor­mes har­mo­ni­sées men­ti­onnées au point (a) ont été publiées avec une rest­ric­tion, et uni­quement sur la par­tie de la nor­me qui a été restreinte.

Aux fins de la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té visée à l’an­ne­xe VII, le pre­sta­tai­re peut choi­sir n’im­por­te lequel des orga­nis­mes noti­fi­és. Tou­te­fois, lorsque le système IA à haut ris­que est desti­né à être mis en ser­vice par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, de l’im­mi­gra­ti­on ou de l’a­si­le ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on, l’au­to­ri­té de sur­veil­lan­ce du mar­ché visée à l’ar­tic­le 74, para­gra­phes 8 ou 9, le cas échéant, agit en tant qu’or­ga­nis­me notifié.

2. Pour les systè­mes IA à haut ris­que visés aux points 2 à 8 de l’an­ne­xe III, les four­nis­seurs doi­vent sui­v­re la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té basée sur le con­trô­le inter­ne visée à l’an­ne­xe VI, qui ne pré­voit pas l’in­ter­ven­ti­on d’un orga­nis­me notifié.

3. Pour les systè­mes d’alar­me à haut ris­que cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée dans la sec­tion A de l’an­ne­xe I, le four­nis­seur suit la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té per­ti­nen­te requi­se par ces actes légis­la­tifs. Les exi­gen­ces énon­cées à la sec­tion 2 du pré­sent cha­pit­re s’ap­pli­quent à ces systè­mes IA à haut ris­que et doi­vent fai­re par­tie de cet­te éva­lua­ti­on. Les points 4.3, 4.4, 4.5 et le cin­quiè­me para­gra­phe du point 4.6 de l’an­ne­xe VII s’ap­pli­quent également.

Aux fins de cet­te éva­lua­ti­on, les orga­nis­mes noti­fi­és qui ont été noti­fi­és en ver­tu de ces actes juri­di­ques sont habi­li­tés à con­trô­ler la con­for­mi­té des systè­mes IA à haut ris­que avec les exi­gen­ces énon­cées à la sec­tion 2, à con­di­ti­on que la con­for­mi­té de ces orga­nis­mes noti­fi­és avec les exi­gen­ces énon­cées à l’ar­tic­le 31, para­gra­phes 4, 5, 10 et 11, ait été éva­luée dans le cad­re de la pro­cé­du­re de noti­fi­ca­ti­on pré­vue par ces actes juridiques.

Lorsqu’un acte juri­di­que énu­mé­ré à la sec­tion A de l’an­ne­xe I per­met au fab­ri­cant d’un pro­duit de ne pas pro­cé­der à une éva­lua­ti­on tier­ce de la con­for­mi­té, à con­di­ti­on que ce fab­ri­cant ait appli­qué tou­tes les nor­mes har­mo­ni­sées couvrant tou­tes les exi­gen­ces per­ti­nen­tes, ce fab­ri­cant ne peut recour­ir à cet­te opti­on que s’il a éga­le­ment appli­qué des nor­mes har­mo­ni­sées ou, le cas échéant, des spé­ci­fi­ca­ti­ons com­mu­nes visées à l’ar­tic­le 41, couvrant tou­tes les exi­gen­ces énon­cées à la sec­tion 2 du pré­sent chapitre.

(124) Il con­vi­ent, afin de rédui­re au mini­mum la char­ge pesant sur les opé­ra­teurs et d’é­vi­ter tou­te dupli­ca­ti­on éven­tu­el­le, que, pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que asso­ciés à des pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on exi­stan­te basée sur le nou­veau cad­re légis­la­tif, la con­for­mi­té de ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le aux exi­gen­ces du pré­sent règle­ment soit éva­luée dans le cad­re de l’éva­lua­ti­on de con­for­mi­té déjà pré­vue par cet­te légis­la­ti­on. L’ap­pli­ca­bi­li­té des exi­gen­ces du pré­sent règle­ment ne dev­rait donc pas affec­ter la logi­que, la métho­do­lo­gie ou la struc­tu­re géné­ra­le spé­ci­fi­ques de l’éva­lua­ti­on de la con­for­mi­té dans le cad­re de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on concernée.

(125) Comp­te tenu de la com­ple­xi­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et des ris­ques qui leur sont asso­ciés, il est important de mett­re au point une pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té appro­priée pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que impli­quant des orga­nis­mes noti­fi­és, ce que l’on appel­le l’éva­lua­ti­on de la con­for­mi­té par des tiers. Tou­te­fois, comp­te tenu de l’expé­ri­ence actu­el­le des cer­ti­fi­ca­teurs pro­fes­si­on­nels avant com­mer­cia­li­sa­ti­on dans le domaine de la sécu­ri­té des pro­duits et de la natu­re dif­fé­ren­te des ris­ques impli­qués, il con­vi­ent de limi­ter, au moins dans une pha­se initia­le d’ap­pli­ca­ti­on du pré­sent règle­ment, le champ d’ap­pli­ca­ti­on de l’éva­lua­ti­on de la con­for­mi­té par des tiers pour les systè­mes d’IA à haut ris­que aut­res que ceux liés aux pro­duits. Par con­sé­quent, l’éva­lua­ti­on de la con­for­mi­té de ces systè­mes dev­rait être effec­tuée en règ­le géné­ra­le par le four­nis­seur sous sa pro­pre responsa­bi­li­té, à l’ex­cep­ti­on des systè­mes d’IA desti­nés à être uti­li­sés à des fins biométriques.

(126) Afin de pou­voir pro­cé­der à des éva­lua­tions de la con­for­mi­té par des tiers lorsque cela est néces­saire, les orga­nis­mes noti­fi­és doi­vent être noti­fi­és par les auto­ri­tés natio­na­les com­pé­ten­tes con­for­mé­ment au pré­sent règle­ment, à con­di­ti­on qu’ils satis­fas­sent à un cer­tain nombre d’e­xi­gen­ces, notam­ment en matiè­re d’in­dé­pen­dance, de com­pé­tence, d’ab­sence de con­flits d’in­té­rêts et d’e­xi­gen­ces appro­priées en matiè­re de cyber­sé­cu­ri­té. La noti­fi­ca­ti­on de ces orga­nis­mes doit être envoy­ée par les auto­ri­tés natio­na­les com­pé­ten­tes à la Com­mis­si­on et aux aut­res États mem­bres au moy­en de l’ou­til de noti­fi­ca­ti­on élec­tro­ni­que mis au point et géré par la Com­mis­si­on con­for­mé­ment à l’ar­tic­le R23 de l’an­ne­xe I de la décis­i­on no 768/2008/CE.

(127) Con­for­mé­ment aux enga­ge­ments pris par l’U­ni­on dans le cad­re de l’ac­cord de l’Or­ga­ni­sa­ti­on mon­dia­le du com­mer­ce sur les obs­ta­cles tech­ni­ques au com­mer­ce, il est appro­prié de faci­li­ter la recon­nais­sance mutu­el­le des résul­tats des éva­lua­tions de la con­for­mi­té effec­tuées par des orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té com­pé­tents, indé­pen­dants du ter­ri­toire sur lequel ils sont étab­lis, à con­di­ti­on que ces orga­nis­mes d’éva­lua­ti­on de la con­for­mi­té étab­lis en ver­tu de la légis­la­ti­on d’un pays tiers satis­fas­sent aux exi­gen­ces appli­ca­bles du pré­sent règle­ment et que l’U­ni­on ait con­clu un accord en ce sens. Dans ce con­tex­te, la Com­mis­si­on dev­rait explo­rer acti­ve­ment les instru­ments inter­na­ti­on­aux pos­si­bles à cet­te fin et, en par­ti­cu­lier, pour­suiv­re la con­clu­si­on d’ac­cords de recon­nais­sance mutu­el­le avec des pays tiers.

4. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui ont déjà été sou­mis à une pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té doi­vent fai­re l’ob­jet d’u­ne nou­vel­le pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té en cas de modi­fi­ca­ti­on sub­stan­ti­el­le, que le système modi­fié soit desti­né à être dis­tri­bué ulté­ri­eu­re­ment ou qu’il con­ti­n­ue d’êt­re uti­li­sé par le déployeur actuel.

Pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui con­ti­nuent d’app­rend­re après avoir été mis sur le mar­ché ou mis en ser­vice, les modi­fi­ca­ti­ons appor­tées au système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et à ses per­for­man­ces, qui ont été pré­dé­fi­nies par le four­nis­seur au moment de l’éva­lua­ti­on initia­le de la con­for­mi­té et qui font par­tie des infor­ma­ti­ons con­te­nues dans la docu­men­ta­ti­on tech­ni­que visée au point 2(f) de l’an­ne­xe IV, ne con­sti­tu­ent pas une modi­fi­ca­ti­on substantielle.

(128) Con­for­mé­ment à la noti­on com­mu­n­é­ment admi­se de modi­fi­ca­ti­on sub­stan­ti­el­le pour les pro­duits régle­men­tés par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on, il est appro­prié de con­sidé­rer que chaque fois qu’un chan­ge­ment sus­cep­ti­ble d’af­fec­ter la con­for­mi­té d’un système IA à haut ris­que avec le pré­sent règle­ment inter­vi­ent (par exemp­le, chan­ge­ment de système d’ex­plo­ita­ti­on ou d’ar­chi­tec­tu­re logi­ciel­le), ou lorsque l’ob­jec­tif pré­vu du système chan­ge, ce système IA dev­rait être con­sidé­ré com­me un nou­veau système IA qui dev­rait fai­re l’ob­jet d’u­ne nou­vel­le éva­lua­ti­on de con­for­mi­té. Tou­te­fois, les modi­fi­ca­ti­ons appor­tées à l’al­go­rith­me et aux per­for­man­ces des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui con­ti­nuent d’ ”app­rend­re” après leur mise sur le mar­ché ou leur mise en ser­vice, c’est-à-dire qui adapt­ent auto­ma­ti­quement la maniè­re dont les fonc­tions sont exé­cu­tées, ne dev­rai­ent pas con­sti­tuer une modi­fi­ca­ti­on sub­stan­ti­el­le, à con­di­ti­on que ces modi­fi­ca­ti­ons aient été pré­dé­fi­nies par le four­nis­seur et éva­luées au moment de l’éva­lua­ti­on de la conformité.

5. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier les anne­xes VI et VII en les actua­li­sant en fonc­tion des pro­grès techniques.

6. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier les para­gra­phes 1 et 2 du pré­sent artic­le ou de sou­mett­re les systè­mes d’assu­rance qua­li­té à haut ris­que visés aux points 2 à 8 de l’an­ne­xe III à la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té visée à l’an­ne­xe VII ou à cer­tai­nes par­ties de cel­le-ci. La Com­mis­si­on adop­te de tels actes délé­gués en tenant comp­te de l’ef­fi­ca­ci­té de la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té fon­dée sur le con­trô­le inter­ne visé à l’an­ne­xe VI pour pré­ve­nir ou rédui­re au mini­mum les ris­ques pour la san­té et la sécu­ri­té et la pro­tec­tion des droits fon­da­men­taux que pré­sen­tent de tels systè­mes, ain­si que de la dis­po­ni­bi­li­té de capa­ci­tés et de res­sour­ces adé­qua­tes par­mi les orga­nis­mes notifiés.

Artic­le 44 Certificats

1. Les cer­ti­fi­cats déli­v­rés par les orga­nis­mes noti­fi­és con­for­mé­ment à l’an­ne­xe VII sont rédi­gés dans une lan­gue qui peut être aisé­ment com­pri­se par les auto­ri­tés com­pé­ten­tes de l’É­tat membre dans lequel l’or­ga­nis­me noti­fié est établi.

2. Les cer­ti­fi­cats sont val­ables pour la péri­ode qu’ils indi­quent, qui ne doit pas dépas­ser cinq ans pour les systè­mes IA cou­verts par l’an­ne­xe I et quat­re ans pour les systè­mes IA cou­verts par l’an­ne­xe III. À la deman­de du four­nis­seur, la vali­di­té d’un cer­ti­fi­cat peut être pro­lon­gée pour des péri­odes sup­p­lé­men­tai­res, cha­cu­ne ne dépas­sant pas cinq ans pour les systè­mes IA cou­verts par l’an­ne­xe I et quat­re ans pour les systè­mes IA cou­verts par l’an­ne­xe III, sur la base d’u­ne rééva­lua­ti­on con­for­mé­ment aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té appli­ca­bles. Tout sup­p­lé­ment à un cer­ti­fi­cat reste valable, à con­di­ti­on que le cer­ti­fi­cat qu’il com­plè­te soit valable.

3. Lorsqu’un orga­nis­me noti­fié con­sta­te qu’un système d’assu­rance qua­li­té ne satis­fait plus aux exi­gen­ces énon­cées à la sec­tion 2, il sus­pend ou reti­re le cer­ti­fi­cat déli­v­ré ou impo­se des rest­ric­tions à son égard, en tenant comp­te du prin­ci­pe de pro­por­ti­on­na­li­té, à moins que le respect de ces exi­gen­ces ne soit assu­ré par une action cor­rec­ti­ve appro­priée ent­re­pri­se par le four­nis­seur du système dans un délai rai­sonnable fixé par l’or­ga­nis­me noti­fié. L’or­ga­nis­me noti­fié moti­ve sa décision.

Une pro­cé­du­re de recours cont­re les décis­i­ons des orga­nis­mes noti­fi­és, y com­pris sur les cer­ti­fi­cats de con­for­mi­té déli­v­rés, doit être disponible.

Artic­le 45 Obli­ga­ti­ons d’in­for­ma­ti­on des orga­nis­mes notifiés

1. Les orga­nis­mes noti­fi­és doi­vent infor­mer l’au­to­ri­té noti­fi­an­te des élé­ments suivants :

(a) tout cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on, tout com­plé­ment à ces cer­ti­fi­cats et tou­te appro­ba­ti­on du système de gesti­on de la qua­li­té déli­v­rés con­for­mé­ment aux exi­gen­ces de l’an­ne­xe VII ;

(b) tout refus, rest­ric­tion, sus­pen­si­on ou retrait d’un cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on ou d’u­ne appro­ba­ti­on du système de gesti­on de la qua­li­té déli­v­ré con­for­mé­ment aux exi­gen­ces de l’an­ne­xe VII ;

(c) tou­te cir­con­stance affec­tant la por­tée de la noti­fi­ca­ti­on ou les con­di­ti­ons de celle-ci ;

(d) tou­te deman­de d’in­for­ma­ti­ons qu’ils ont reçues des auto­ri­tés de sur­veil­lan­ce du mar­ché con­cer­nant les acti­vi­tés d’éva­lua­ti­on de la conformité ;

(e) sur deman­de, les acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té effec­tuées dans le cad­re de leur noti­fi­ca­ti­on et tou­te aut­re acti­vi­té effec­tuée, y com­pris les acti­vi­tés trans­fron­ta­liè­res et la sous-traitance.

2. Chaque orga­nis­me noti­fié doit infor­mer les aut­res orga­nis­mes noti­fi­és de :

(a) des appro­ba­ti­ons de système de gesti­on de la qua­li­té qu’il a refusées, sus­pen­dues ou reti­rées et, sur deman­de, des appro­ba­ti­ons de système de qua­li­té qu’il a délivrées ;

(b) Uni­on des cer­ti­fi­cats d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que ou de tout com­plé­ment à ceux-ci qu’el­le a refusés, reti­rés, sus­pen­dus ou sou­mis à d’aut­res rest­ric­tions, et, sur deman­de, des cer­ti­fi­cats et/ou com­plé­ments à ceux-ci qu’el­le a délivrés.

3. Chaque orga­nis­me noti­fié doit four­nir aux aut­res orga­nis­mes noti­fi­és exer­çant des acti­vi­tés d’éva­lua­ti­on de la con­for­mi­té portant sur les mêmes types de systè­mes d’assu­rance qua­li­té des infor­ma­ti­ons per­ti­nen­tes sur les que­sti­ons rela­ti­ves aux résul­tats néga­tifs et, sur deman­de, posi­tifs de l’éva­lua­ti­on de la conformité.

4. Les orga­nis­mes noti­fi­és garan­tis­sent la con­fi­den­tia­li­té des infor­ma­ti­ons qu’ils obti­en­nent, con­for­mé­ment à l’ar­tic­le 78.

Artic­le 46 Déro­ga­ti­on à la pro­cé­du­re d’éva­lua­ti­on de la conformité

1. Par déro­ga­ti­on à l’ar­tic­le 43 et sur deman­de dûment justi­fi­ée, tou­te auto­ri­té de sur­veil­lan­ce du mar­ché peut auto­ri­ser la mise sur le mar­ché ou la mise en ser­vice de systè­mes spé­ci­fi­ques d’IA à haut ris­que sur le ter­ri­toire de l’É­tat membre con­cer­né, pour des rai­sons excep­ti­on­nel­les de sécu­ri­té publi­que ou de pro­tec­tion de la vie et de la san­té des per­son­nes, de pro­tec­tion de l’en­vi­ron­ne­ment ou de pro­tec­tion d’ac­tifs indu­stri­els et d’in­fras­truc­tures essen­tiels. Cet­te auto­ri­sa­ti­on est accor­dée pour une durée limi­tée, pen­dant laquel­le les pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té néces­saires sont effec­tuées, en tenant comp­te des rai­sons excep­ti­on­nel­les justi­fi­ant la déro­ga­ti­on. L’ac­hè­ve­ment de ces pro­cé­du­res doit être effec­tué sans retard injustifié.

2. Dans une situa­ti­on d’ur­gence dûment justi­fi­ée pour des rai­sons excep­ti­on­nel­les de sécu­ri­té publi­que ou en cas de men­ace spé­ci­fi­que, sub­stan­ti­el­le et immi­nen­te pour la vie ou la sécu­ri­té phy­si­que de per­son­nes phy­si­ques, les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou de la pro­tec­tion civi­le peu­vent mett­re en ser­vice un système IA à haut ris­que spé­ci­fi­que sans l’au­to­ri­sa­ti­on visée au para­gra­phe 1, à con­di­ti­on que cet­te auto­ri­sa­ti­on soit deman­dée pen­dant ou après l’uti­li­sa­ti­on sans délai. En cas de refus de l’au­to­ri­sa­ti­on visée au para­gra­phe 1, l’uti­li­sa­ti­on du système IA à haut ris­que est immé­dia­te­ment sus­pen­due et tous les résul­tats de cet­te uti­li­sa­ti­on sont immé­dia­te­ment effacés.

3. L’au­to­ri­sa­ti­on visée au para­gra­phe 1 n’est déli­v­rée que si l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­clut que le système d’assu­rance-inva­li­di­té à haut ris­que satis­fait aux exi­gen­ces de la sec­tion 2. L’au­to­ri­té de sur­veil­lan­ce du mar­ché infor­me la Com­mis­si­on et les aut­res États mem­bres de tou­te auto­ri­sa­ti­on déli­v­rée con­for­mé­ment aux para­gra­phes 1 et 2. Cet­te obli­ga­ti­on ne cou­vre pas les don­nées opé­ra­ti­on­nel­les sen­si­bles rela­ti­ves aux acti­vi­tés des auto­ri­tés char­gées de fai­re respec­ter la loi.

4. Si, dans un délai de 15 jours calend­ai­res à comp­ter de la récep­ti­on des infor­ma­ti­ons visées au para­gra­phe 3, aucu­ne objec­tion n’a été sou­le­vée par un État membre ou par la Com­mis­si­on à l’en­cont­re d’u­ne auto­ri­sa­ti­on déli­v­rée par une auto­ri­té de sur­veil­lan­ce du mar­ché d’un État membre con­for­mé­ment au para­gra­phe 1, cet­te auto­ri­sa­ti­on est répu­tée justifiée.

5. Si, dans les 15 jours calend­ai­res sui­vant la récep­ti­on de la noti­fi­ca­ti­on visée au para­gra­phe 3, un État membre soulè­ve des objec­tions à l’en­cont­re d’u­ne auto­ri­sa­ti­on déli­v­rée par une auto­ri­té de sur­veil­lan­ce du mar­ché d’un aut­re État membre, ou si la Com­mis­si­on esti­me que l’au­to­ri­sa­ti­on est con­trai­re au droit de l’U­ni­on, ou si la con­clu­si­on des États mem­bres quant à la con­for­mi­té du système visé au para­gra­phe 3 est infon­dée, la Com­mis­si­on ent­a­me sans délai des con­sul­ta­ti­ons avec l’É­tat membre con­cer­né. Les explo­itants con­cer­nés sont con­sul­tés et ont la pos­si­bi­li­té de pré­sen­ter leur point de vue. A cet égard, la Com­mis­si­on déter­mi­ne si l’au­to­ri­sa­ti­on est justi­fi­ée. La Com­mis­si­on com­mu­ni­que sa décis­i­on à l’É­tat membre con­cer­né et aux opé­ra­teurs concernés.

6. Si la Com­mis­si­on esti­me que l’au­to­ri­sa­ti­on n’est pas justi­fi­ée, elle est reti­rée par l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre concerné.

7. Pour les systè­mes IA à haut ris­que rela­tifs à des pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée dans la sec­tion A de l’an­ne­xe I, seu­les les déro­ga­ti­ons à l’éva­lua­ti­on de la con­for­mi­té éta­b­lies dans cet­te légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on s’appliquent.

(130) Dans cer­tai­nes con­di­ti­ons, la mise à dis­po­si­ti­on rapi­de de tech­no­lo­gies inno­van­tes peut être cru­cia­le pour la san­té et la sécu­ri­té des per­son­nes, la pro­tec­tion de l’en­vi­ron­ne­ment et le chan­ge­ment cli­ma­tique, et pour la socié­té dans son ensem­ble. Il est donc appro­prié que, pour des rai­sons excep­ti­on­nel­les de sécu­ri­té publi­que ou de pro­tec­tion de la vie et de la san­té de per­son­nes phy­si­ques, de pro­tec­tion de l’en­vi­ron­ne­ment et de pro­tec­tion d’ac­tifs indu­stri­els et d’in­fras­truc­tures essen­tiels, les auto­ri­tés de sur­veil­lan­ce du mar­ché pui­s­sent auto­ri­ser la mise sur le mar­ché ou la mise en ser­vice de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui n’ont pas fait l’ob­jet d’u­ne éva­lua­ti­on de la con­for­mi­té. Dans des situa­tions dûment justi­fi­ées, tel­les que pré­vues par le pré­sent règle­ment, les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou de la pro­tec­tion civi­le peu­vent mett­re en ser­vice un système d’IA spé­ci­fi­que à haut ris­que sans l’au­to­ri­sa­ti­on de l’au­to­ri­té de sur­veil­lan­ce du mar­ché, à con­di­ti­on que cet­te auto­ri­sa­ti­on soit deman­dée pen­dant ou après l’uti­li­sa­ti­on sans retard injustifié.

Artic­le 47 Décla­ra­ti­on de con­for­mi­té UE

1. Le four­nis­seur doit éta­b­lir une décla­ra­ti­on de con­for­mi­té UE écri­te, lisi­ble par machi­ne, signée phy­si­quement ou élec­tro­ni­quement, pour chaque système d’IA à haut ris­que, et ke

la con­ser­ver à la dis­po­si­ti­on des auto­ri­tés natio­na­les com­pé­ten­tes pen­dant 10 ans après que le système d’alar­me à haut ris­que a été mis sur le mar­ché ou mis en ser­vice. La décla­ra­ti­on UE de con­for­mi­té doit iden­ti­fier le système d’alar­me à haut ris­que pour lequel elle a été éta­b­lie. Une copie de la décla­ra­ti­on de con­for­mi­té UE doit être trans­mi­se sur deman­de aux auto­ri­tés natio­na­les com­pé­ten­tes concernées.

2. La décla­ra­ti­on UE de con­for­mi­té doit indi­quer que le système d’alar­me à haut ris­que con­cer­né satis­fait aux exi­gen­ces énon­cées à la sec­tion 2. La décla­ra­ti­on UE de con­for­mi­té doit con­te­nir les infor­ma­ti­ons énon­cées à l’an­ne­xe V et être tra­duite dans une lan­gue aisé­ment com­pré­hen­si­ble par les auto­ri­tés natio­na­les com­pé­ten­tes des États mem­bres dans les­quels le système d’alar­me à haut ris­que est mis sur le mar­ché ou à disposition.

3. Lorsque les systè­mes d’alar­me à haut ris­que sont sou­mis à une aut­re légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on qui requiert éga­le­ment une décla­ra­ti­on de con­for­mi­té de l’UE, une décla­ra­ti­on de con­for­mi­té uni­que de l’UE doit être éta­b­lie pour l’en­sem­ble du droit de l’U­ni­on appli­ca­ble au système d’alar­me à haut ris­que. La décla­ra­ti­on doit con­te­nir tou­tes les infor­ma­ti­ons néces­saires pour iden­ti­fier la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on à laquel­le la décla­ra­ti­on se rapporte.

4. En éta­blis­sant la décla­ra­ti­on de con­for­mi­té UE, le four­nis­seur assu­me la responsa­bi­li­té de la con­for­mi­té aux exi­gen­ces énon­cées à la sec­tion 2. Le four­nis­seur doit tenir à jour la décla­ra­ti­on de con­for­mi­té UE, le cas échéant.

5. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier l’an­ne­xe V en actua­li­sant le con­te­nu de la décla­ra­ti­on UE de con­for­mi­té pré­vue dans cet­te anne­xe, afin d’in­tro­dui­re des élé­ments deve­nus néces­saires à la lumiè­re du pro­grès technique.

Artic­le 48 Mar­quage CE

1. Le mar­quage CE doit être sou­mis aux prin­cipes géné­raux énon­cés à l’ar­tic­le 30 du règle­ment (CE) no 765/2008.

2. Pour les systè­mes IA à haut ris­que four­nis sous for­me numé­ri­que, un mar­quage CE numé­ri­que ne doit être uti­li­sé que s’il est faci­le­ment acce­s­si­ble via l’in­ter­face à par­tir de laquel­le le système est acce­s­si­ble ou via un code lisi­ble par machi­ne faci­le­ment acce­s­si­ble ou d’aut­res moy­ens électroniques.

3. Le mar­quage CE doit être appo­sé de maniè­re visi­ble, légiti­me et indis­cuta­ble sur les systè­mes d’alar­me à haut ris­que. Si cela n’est pas pos­si­ble ou garan­ti en rai­son de la natu­re du système IA à haut ris­que, il doit être appo­sé sur l’em­bal­la­ge ou sur la docu­men­ta­ti­on d’ac­com­pa­gne­ment, selon le cas.

4. Le cas échéant, le mar­quage CE doit être sui­vi du numé­ro d’i­den­ti­fi­ca­ti­on de l’or­ga­nis­me noti­fié responsable des pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té visées à l’ar­tic­le 43. Le numé­ro d’i­den­ti­fi­ca­ti­on de l’or­ga­nis­me noti­fié doit être appo­sé par l’or­ga­nis­me lui-même ou, sous sa direc­tion, par le four­nis­seur ou par le repré­sen­tant agréé du four­nis­seur. Le numé­ro d’i­den­ti­fi­ca­ti­on doit éga­le­ment être indi­qué dans tout maté­ri­el pro­mo­ti­on­nel qui men­ti­on­ne que le système d’alar­me à haut ris­que satis­fait aux exi­gen­ces du mar­quage CE.

5. Lorsque les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sont sou­mis à une aut­re légis­la­ti­on de l’U­ni­on qui pré­voit éga­le­ment l’ap­po­si­ti­on du mar­quage CE, ce der­nier doit indi­quer que le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que satis­fait éga­le­ment aux exi­gen­ces de cet­te aut­re législation.

(129) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que doi­vent por­ter le mar­quage CE pour indi­quer leur con­for­mi­té au pré­sent règle­ment, de sor­te qu’ils pui­s­sent se dépla­cer libre­ment sur le mar­ché inté­ri­eur. Pour les systè­mes d’IA à haut ris­que inté­g­rés dans un pro­duit, un mar­quage CE phy­si­que doit être appo­sé et peut être com­plé­té par un mar­quage CE numé­ri­que. Pour les systè­mes IA à haut ris­que four­nis uni­quement sous for­me numé­ri­que, un mar­quage CE numé­ri­que dev­rait être uti­li­sé. Les États mem­bres ne dev­rai­ent pas cré­er d’ob­s­ta­cles inju­sti­fi­és à la mise sur le mar­ché ou à la mise en ser­vice de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui satis­font aux exi­gen­ces énon­cées dans le pré­sent règle­ment et qui portent le mar­quage CE.

Artic­le 49 Enregistrement

1. Avant de mett­re sur le mar­ché ou en ser­vice un système d’assu­rance mala­die à haut ris­que visé à l’an­ne­xe III, à l’ex­cep­ti­on des systè­mes d’assu­rance mala­die à haut ris­que visés au point 2 de l’an­ne­xe III, le four­nis­seur ou, le cas échéant, le repré­sen­tant agréé s’en­re­gist­re lui-même ain­si que son système dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71.

2. Avant de mett­re sur le mar­ché ou de mett­re en ser­vice un système d’assu­rance inva­li­di­té pour lequel le four­nis­seur a con­clu qu’il ne pré­sen­tait pas de ris­que éle­vé au sens de l’ar­tic­le 6, para­gra­phe 3, ce four­nis­seur ou, le cas échéant, le repré­sen­tant agréé s’in­scrit lui-même et inscrit ce système dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71.

3. Avant de mett­re en ser­vice ou d’uti­li­ser un système d’IA à haut ris­que visé à l’an­ne­xe III, à l’ex­cep­ti­on des systè­mes d’IA à haut ris­que visés au point 2 de l’an­ne­xe III, les déployeurs qui sont des auto­ri­tés publi­ques, des insti­tu­ti­ons de l’U­ni­on, des orga­nes, des bureaux ou des agen­ces, ou des per­son­nes agis­sant en leur nom, s’en­re­gi­st­rent eux-mêmes, sélec­tion­nent le système et enre­gi­st­rent son uti­li­sa­ti­on dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71.

4. Pour les systè­mes d’IA à haut ris­que visés aux points 1, 6 et 7 de l’an­ne­xe III, dans les domain­es de l’ap­pli­ca­ti­on de la loi, de la migra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res, l’en­re­gi­stre­ment visé aux para­gra­phes 1, 2 et 3 du pré­sent artic­le est effec­tué dans une sec­tion sécu­ri­sée et non publi­que de la base de don­nées de l’UE visée à l’ar­tic­le 71 et ne con­ti­ent que les infor­ma­ti­ons sui­van­tes, selon le cas :

(a) sec­tion A, points 1 à 10, de l’an­ne­xe VIII, à l’ex­cep­ti­on des points 6, 8 et 9 ;

(b) Sec­tion B, points 1 à 5, et points 8 et 9 de l’an­ne­xe VIII ;

(c) sec­tion C, points 1 à 3, de l’an­ne­xe VIII ;

(d) points 1, 2, 3 et 5, de l’an­ne­xe IX.

Seu­les la Com­mis­si­on et les auto­ri­tés natio­na­les visées à l’ar­tic­le 74, para­gra­phe 8, ont accès aux sec­tions rest­rein­tes respec­ti­ves de la base de don­nées de l’U­ni­on euro­pé­en­ne énu­mé­rées au pre­mier ali­néa du pré­sent paragraphe.

5. Les systè­mes d’IA à haut ris­que visés au point 2 de l’an­ne­xe III doi­vent être enre­gi­strés au niveau national.

(131) Afin de faci­li­ter les travaux de la Com­mis­si­on et des États mem­bres dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le et d’ac­croît­re la trans­pa­rence vis-à-vis du public, les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que aut­res que ceux liés aux pro­duits rele­vant du champ d’ap­pli­ca­ti­on de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on exi­stan­te per­ti­nen­te, ain­si que les four­nis­seurs qui con­sidè­rent qu’un système d’in­tel­li­gence arti­fi­ci­el­le figu­rant dans les cas d’uti­li­sa­ti­on à haut ris­que annexés au pré­sent règle­ment ne pré­sen­te pas de ris­que éle­vé sur la base d’u­ne déro­ga­ti­on, dev­rai­ent être tenus de s’in­scr­i­re et de four­nir des infor­ma­ti­ons sur leur système d’in­tel­li­gence arti­fi­ci­el­le dans une base de don­nées de l’U­ni­on euro­pé­en­ne, qui sera éta­b­lie et gérée par la Com­mis­si­on. Avant d’uti­li­ser un système d’in­tel­li­gence arti­fi­ci­el­le figu­rant dans la liste des cas d’uti­li­sa­ti­on à haut ris­que annexée au pré­sent règle­ment, les uti­li­sa­teurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont des auto­ri­tés publi­ques, des agen­ces ou des orga­nis­mes dev­rai­ent s’en­re­gi­strer dans une tel­le base de don­nées et sélec­tion­ner le système qu’ils envis­agent d’utiliser.

Les aut­res dét­a­chés dev­rai­ent avoir le droit de le fai­re volon­tai­re­ment. Cet­te sec­tion de la base de don­nées de l’UE dev­rait être acce­s­si­ble au public, sans frais, et les infor­ma­ti­ons dev­rai­ent être faci­le­ment navig­ab­les, com­pré­hen­si­bles et lisi­bles par machi­ne. La base de don­nées de l’UE dev­rait éga­le­ment être con­vi­via­le, par exemp­le en pro­po­sant des fonc­tion­na­li­tés de recher­che, y com­pris par mots-clés, per­met­tant au grand public de trou­ver des infor­ma­ti­ons per­ti­nen­tes à sou­mett­re lors de l’en­re­gi­stre­ment des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et sur le cas d’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, défi­ni dans une anne­xe au pré­sent règle­ment, auquel les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que cor­re­spon­dent. Tou­te modi­fi­ca­ti­on sub­stan­ti­el­le des systè­mes d’IA à haut ris­que doit éga­le­ment être enre­gi­strée dans la base de don­nées de l’UE. Pour les systè­mes d’IA à haut ris­que dans le domaine de l’ap­pli­ca­ti­on de la loi, de la migra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res, les obli­ga­ti­ons d’en­re­gi­stre­ment doi­vent être rem­plies dans une sec­tion sécu­ri­sée non publi­que de la base de don­nées de l’UE. L’ac­cès à la sec­tion sécu­ri­sée non publi­que dev­rait être stric­te­ment limi­té à la Com­mis­si­on ain­si qu’aux auto­ri­tés de sur­veil­lan­ce du mar­ché pour ce qui con­cer­ne leur sec­tion natio­na­le de cet­te base de don­nées. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que dans le domaine de l’in­fras­truc­tu­re cri­tique ne dev­rai­ent être enre­gi­strés qu’au niveau natio­nal. La Com­mis­si­on dev­rait être le con­trô­leur de la base de don­nées de l’UE, con­for­mé­ment au règle­ment (UE) 2018/1725. Afin d’assurer la plei­ne fonc­tion­na­li­té de la base de don­nées de l’UE lorsqu’el­le est déployée, la pro­cé­du­re de mise en place de la base de don­nées dev­rait inclu­re le déve­lo­p­pe­ment de spé­ci­fi­ca­ti­ons fonc­tion­nel­les par la Com­mis­si­on et un rap­port d’au­dit indé­pen­dant. La Com­mis­si­on dev­rait tenir comp­te des ris­ques liés à la cyber­sé­cu­ri­té lorsqu’el­le s’ac­quit­te de ses tâches de con­trô­leur de don­nées sur la base de don­nées de l’UE. Afin de maxi­mi­ser la dis­po­ni­bi­li­té et l’uti­li­sa­ti­on de la base de don­nées de l’UE par le public, la base de don­nées de l’UE, y com­pris les infor­ma­ti­ons mises à dis­po­si­ti­on par son inter­mé­di­ai­re, dev­rait être con­for­me aux exi­gen­ces de la direc­ti­ve (UE) 2019/882.

Cha­pit­re IV Obli­ga­ti­ons de trans­pa­rence pour les four­nis­seurs et les déployeurs de cer­ta­ins systè­mes d’IA

Artic­le 50 Obli­ga­ti­ons de trans­pa­rence pour les four­nis­seurs et les déployeurs de cer­ta­ins systè­mes d’IA

1. Les four­nis­seurs doi­vent veil­ler à ce que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à inter­agir direc­te­ment avec des per­son­nes phy­si­ques soi­ent con­çus et déve­lo­p­pés de maniè­re à ce que les per­son­nes phy­si­ques con­cer­nées soi­ent infor­mées qu’el­les inter­agis­sent avec un système d’in­tel­li­gence arti­fi­ci­el­le, à moins que cela ne soit évi­dent du point de vue d’u­ne per­son­ne phy­si­que rai­sonnablem­ent bien infor­mée, con­sci­en­te et pru­den­te, comp­te tenu des cir­con­stances et du con­tex­te de l’uti­li­sa­ti­on. Cet­te obli­ga­ti­on ne s’ap­pli­que pas aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le auto­ri­sés par la loi à détec­ter, pré­ve­nir, enquêter ou pour­suiv­re des infrac­tions péna­les, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés des tiers, à moins que ces systè­mes ne soi­ent à la dis­po­si­ti­on du public pour signal­er une infrac­tion pénale.

(132) Cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à inter­agir avec des per­son­nes phy­si­ques ou à géné­rer du con­te­nu peu­vent pré­sen­ter des ris­ques spé­ci­fi­ques d’im­per­son­na­li­sa­ti­on ou de décep­ti­on, qu’ils soi­ent ou non con­sidé­rés com­me à haut ris­que. Dans cer­tai­nes cir­con­stances, l’uti­li­sa­ti­on de ces systè­mes dev­rait donc être sou­mi­se à des obli­ga­ti­ons de trans­pa­rence spé­ci­fi­ques, sans pré­ju­di­ce des exi­gen­ces et des obli­ga­ti­ons appli­ca­bles aux systè­mes d’IA à haut ris­que, et fai­re l’ob­jet d’ex­cep­ti­ons ciblées pour tenir comp­te des beso­ins par­ti­cu­liers de l’ap­pli­ca­ti­on de la loi. En par­ti­cu­lier, les per­son­nes phy­si­ques dev­rai­ent être infor­mées qu’el­les inter­agis­sent avec un système d’IA, sauf si cela est évi­dent du point de vue d’u­ne per­son­ne phy­si­que rai­sonnablem­ent bien infor­mée, obser­vatri­ce et pru­den­te, qui tient comp­te des cir­con­stances et du con­tex­te de l’uti­li­sa­ti­on. Lors de la mise en œuvre de cet­te obli­ga­ti­on, les carac­té­ri­sti­ques des per­son­nes phy­si­ques appar­tenant à des grou­pes vul­né­ra­bles en rai­son de leur âge ou de leur han­di­cap dev­rai­ent être pri­ses en comp­te dans la mesu­re où le système d’IA est desti­né à inter­agir avec ces grou­pes éga­le­ment. En out­re, les per­son­nes phy­si­ques dev­rai­ent être infor­mées lorsqu’el­les sont expo­sées à des systè­mes d’IA qui, par le trai­te­ment de leurs don­nées bio­mé­tri­ques, peu­vent iden­ti­fier ou infé­rer les émo­ti­ons ou les inten­ti­ons de ces per­son­nes ou les affec­ter à des caté­go­ries spé­ci­fi­ques. Ces caté­go­ries spé­ci­fi­ques peu­vent con­cer­ner des aspects tels que le sexe, l’â­ge, la cou­leur des che­veux, la cou­leur des yeux, les tatouages, les carac­té­ri­sti­ques per­son­nel­les, l’o­ri­gi­ne eth­ni­que, les pré­fé­ren­ces et les inté­rêts per­son­nels. Ces infor­ma­ti­ons et noti­fi­ca­ti­ons dev­rai­ent être four­nies dans des for­mats acce­s­si­bles aux per­son­nes handicapées.

2. Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, y com­pris les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, qui génè­rent du con­te­nu syn­thé­tique audio, image, vidéo ou tex­te, doi­vent s’assurer que les sor­ties du système d’in­tel­li­gence arti­fi­ci­el­le sont mar­quées dans un for­mat lisi­ble par une machi­ne et qu’el­les peu­vent être détec­tées com­me étant géné­rées ou mani­pulées arti­fi­ci­el­le­ment. Les four­nis­seurs doi­vent s’assurer que leurs solu­ti­ons tech­ni­ques sont effi­caces, interopé­ra­bles, robu­stes et fia­bles dans la mesu­re où cela est tech­ni­quement pos­si­ble, en tenant comp­te des spé­ci­fi­ci­tés et des limi­ta­ti­ons des dif­fér­ents types de con­te­nu, des coûts de mise en œuvre et de l’é­tat de l’art géné­ra­le­ment recon­nu, tel qu’il peut être reflé­té dans les nor­mes tech­ni­ques per­ti­nen­tes. Cet­te obli­ga­ti­on ne s’ap­pli­que pas dans la mesu­re où les systè­mes d’IA exer­cent une fonc­tion d’as­si­stance à l’é­di­ti­on stan­dard ou ne modi­fi­ent pas sub­stan­ti­el­le­ment les don­nées d’en­trée four­nies par le déployeur ou la sém­an­tique de cel­les-ci, ou lorsqu’ils sont auto­ri­sés par la loi à détec­ter, à pré­ve­nir, à enquêter ou à pour­suiv­re des infrac­tions pénales.

3. Les déployeurs d’un système de recon­nais­sance des émo­ti­ons ou d’un système de caté­go­ri­sa­ti­on bio­mé­tri­que doi­vent infor­mer les per­son­nes phy­si­ques expo­sées du fonc­tion­ne­ment du système et trai­ter les don­nées à carac­tère per­son­nel con­for­mé­ment aux règle­ments (UE) 2016/679 et (UE) 2018/1725 et à la direc­ti­ve (UE) 2016/680, selon le cas. Cet­te obli­ga­ti­on ne s’ap­pli­que pas aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le uti­li­sés pour la caté­go­ri­sa­ti­on bio­mé­tri­que et la recon­nais­sance des émo­ti­ons, qui sont auto­ri­sés par la loi pour détec­ter, pré­ve­nir ou enquêter sur des infrac­tions péna­les, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés des tiers, et con­for­mé­ment au droit de l’Union.

(94) Tout trai­te­ment de don­nées bio­mé­tri­ques impli­qué dans l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à des fins d’ap­pli­ca­ti­on de la loi doit être con­for­me à l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680, qui auto­ri­se un tel trai­te­ment uni­quement lorsqu’il est stric­te­ment néces­saire, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés du sujet des don­nées, et lorsqu’il est auto­ri­sé par le droit de l’U­ni­on ou des États mem­bres. Une tel­le uti­li­sa­ti­on, lorsqu’el­le est auto­ri­sée, doit éga­le­ment respec­ter les prin­cipes énon­cés à l’ar­tic­le 4 (1) de la direc­ti­ve (UE) 2016/680, y com­pris la léga­li­té, l’é­qui­té et la trans­pa­rence, la limi­ta­ti­on des fina­li­tés, l’e­xac­ti­tu­de et la limi­ta­ti­on du stockage.

4. Les uti­li­sa­teurs d’un système d’in­tel­li­gence arti­fi­ci­el­le qui génè­re ou manipu­le des images, des sons ou des vidé­os con­sti­tu­ant un faux en pro­fon­deur doi­vent révé­ler que le con­te­nu a été géné­ré ou mani­pulé arti­fi­ci­el­le­ment. Cet­te obli­ga­ti­on ne s’ap­pli­que pas lorsque l’uti­li­sa­ti­on est auto­ri­sée par la loi pour détec­ter, pré­ve­nir, enquêter ou pour­suiv­re des infrac­tions péna­les. Lorsque le con­te­nu fait par­tie d’u­ne œuvre ou d’un pro­gram­me mani­fe­stem­ent arti­stique, créa­tif, sati­ri­que, fic­tion­nel ou ana­lo­gue, les obli­ga­ti­ons de trans­pa­rence énon­cées dans le pré­sent para­gra­phe se limi­tent à la divul­ga­ti­on de l’e­xi­stence d’un tel con­te­nu géné­ré ou mani­pulé d’u­ne maniè­re appro­priée qui n’en­tra­ve pas la visua­li­sa­ti­on ou la jouis­sance de l’œuvre.

Les explo­itants d’un système d’in­tel­li­gence arti­fi­ci­el­le qui génè­re ou manipu­le des tex­tes publiés dans le but d’in­for­mer le public sur des que­sti­ons d’in­té­rêt public doi­vent révé­ler que le tex­te a été géné­ré ou mani­pulé arti­fi­ci­el­le­ment. Cet­te obli­ga­ti­on ne s’ap­pli­que pas lorsque l’uti­li­sa­ti­on est auto­ri­sée par la loi pour détec­ter, pré­ve­nir, enquêter ou pour­suiv­re des infrac­tions péna­les ou lorsque le con­te­nu géné­ré par IA a fait l’ob­jet d’un pro­ce­s­sus de révi­si­on humaine ou d’un con­trô­le édi­to­ri­al et lorsqu’u­ne per­son­ne phy­si­que ou mora­le assu­me la responsa­bi­li­té édi­to­ria­le de la publi­ca­ti­on du contenu.

(133) Une varié­té de systè­mes d’IA peut géné­rer de gran­des quan­ti­tés de con­te­nu syn­thé­tique qu’il devi­ent de plus en plus dif­fi­ci­le pour l’hom­me de distin­guer du con­te­nu authen­tique et géné­ré par l’hom­me. La lar­ge dis­po­ni­bi­li­té et les capa­ci­tés crois­s­an­tes de ces systè­mes ont un impact signi­fi­ca­tif sur l’in­té­gri­té et la con­fi­ance dans l’é­co­sy­stème de l’in­for­ma­ti­on, créant de nou­veaux ris­ques de dés­in­for­ma­ti­on et de mani­pu­la­ti­on à gran­de échel­le, de frau­de, d’im­per­son­na­li­sa­ti­on et de trom­pe­rie des con­som­ma­teurs. Comp­te tenu de ces impacts, de la rapi­di­té du ryth­me tech­no­lo­gi­que et du beso­in de nou­vel­les métho­des et tech­ni­ques pour retra­cer l’o­ri­gi­ne des infor­ma­ti­ons, il est appro­prié d’e­xi­ger des four­nis­seurs de ces systè­mes qu’ils intègrent des solu­ti­ons tech­ni­ques qui per­met­tent de mar­quer dans un for­mat lisi­ble par une machi­ne et de détec­ter que la sor­tie a été géné­rée ou mani­pulée par un système IA et non par un humain. Ces tech­ni­ques et métho­des dev­rai­ent être suf­fi­sam­ment fia­bles, interopé­ra­bles, effi­caces et robu­stes dans la mesu­re où cela est tech­ni­quement pos­si­ble, en tenant comp­te des tech­ni­ques dis­po­ni­bles ou d’u­ne com­bi­nai­son de tel­les tech­ni­ques, tel­les que les fili­gra­nes, l’i­den­ti­fi­ca­ti­on des méta­don­nées, les métho­des cryp­to­gra­phi­ques de preuve et d’au­then­ti­ci­té du con­te­nu, les métho­des d’en­re­gi­stre­ment, les emprein­tes digi­ta­les ou d’aut­res tech­ni­ques, selon le cas. Lors de la mise en œuvre de cet­te obli­ga­ti­on, les four­nis­seurs dev­rai­ent éga­le­ment tenir comp­te des spé­ci­fi­ci­tés et des limi­tes des dif­fér­ents types de con­te­nu et des évo­lu­ti­ons tech­no­lo­gi­ques et com­mer­cia­les per­ti­nen­tes dans ce domaine, tel­les qu’el­les sont reflé­tées dans l’é­tat de l’art géné­ra­le­ment recon­nu. Ces tech­ni­ques et métho­des peu­vent être mises en œuvre au niveau du système d’in­tel­li­gence arti­fi­ci­el­le ou au niveau du modè­le d’in­tel­li­gence arti­fi­ci­el­le, y com­pris des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral géné­rant du con­te­nu, faci­li­tant ain­si le respect de cet­te obli­ga­ti­on par le four­nis­seur en aval du système d’in­tel­li­gence arti­fi­ci­el­le. Pour rester pro­por­ti­onné, il con­vi­ent d’en­vi­sa­ger que cet­te obli­ga­ti­on de mar­quage ne cou­vre pas les systè­mes d’IA ayant prin­ci­pa­le­ment une fonc­tion d’as­si­stance à l’é­di­ti­on stan­dard ou les systè­mes d’IA qui ne modi­fi­ent pas sub­stan­ti­el­le­ment les don­nées d’en­trée four­nies par le déployeur ou la sém­an­tique de ces données.

(134) En plus des solu­ti­ons tech­ni­ques employées par les four­nis­seurs du système d’in­tel­li­gence arti­fi­ci­el­le, les déployeurs qui uti­li­sent un système d’in­tel­li­gence arti­fi­ci­el­le pour géné­rer ou mani­pu­ler des images, des sons ou des vidé­os qui res­sem­blent de maniè­re signi­fi­ca­ti­ve à des per­son­nes, des objets, des lieux, des enti­tés ou des évé­ne­ments exi­stants et qui paraî­trai­ent fausse­ment authen­ti­ques ou véri­di­ques à une per­son­ne (fausses infor­ma­ti­ons), dev­rai­ent éga­le­ment indi­quer clai­re­ment et de maniè­re distinc­te que le con­te­nu a été créé ou mani­pulé arti­fi­ci­el­le­ment en éti­que­tant la sor­tie du système d’in­tel­li­gence arti­fi­ci­el­le en con­sé­quence et en révé­lant son ori­gi­ne arti­fi­ci­el­le. Le respect de cet­te obli­ga­ti­on de trans­pa­rence ne doit pas être inter­pré­té com­me l’in­di­ca­ti­on que l’uti­li­sa­ti­on du système IA ou de sa pro­duc­tion ent­ra­ve le droit à la liber­té d’ex­pres­si­on et le droit à la liber­té des arts et des sci­en­ces garan­tis par la Char­te, en par­ti­cu­lier lorsque le con­te­nu fait par­tie d’u­ne œuvre ou d’un pro­gram­me mani­fe­stem­ent créa­tif, sati­ri­que, arti­stique, fic­tion­nel ou ana­lo­gue, sous réser­ve de garan­ties appro­priées pour les droits et liber­tés des tiers. Dans ces cas, l’ob­li­ga­ti­on de trans­pa­rence pour les fakes pro­fonds pré­vue par le pré­sent règle­ment est limi­tée à la divul­ga­ti­on de l’e­xi­stence d’un tel con­te­nu géné­ré ou mani­pulé d’u­ne maniè­re appro­priée qui n’en­tra­ve pas la pré­sen­ta­ti­on ou la jouis­sance de l’œu­vre, y com­pris son explo­ita­ti­on et son uti­li­sa­ti­on nor­ma­les, tout en pré­ser­vant l’uti­li­té et la qua­li­té de l’œu­vre. En out­re, il est éga­le­ment appro­prié d’en­vi­sa­ger une obli­ga­ti­on de divul­ga­ti­on simi­lai­re en ce qui con­cer­ne le tex­te géné­ré ou mani­pulé par l’IA, dans la mesu­re où il est publié dans le but d’in­for­mer le public sur des que­sti­ons d’in­té­rêt public, à moins que le con­te­nu géné­ré par l’IA n’ait fait l’ob­jet d’un pro­ce­s­sus de révi­si­on humaine ou d’un con­trô­le édi­to­ri­al et qu’u­ne per­son­ne phy­si­que ou mora­le n’as­su­me la responsa­bi­li­té édi­to­ria­le de la publi­ca­ti­on du contenu.

5. Les infor­ma­ti­ons visées aux para­gra­phes 1 à 4 sont four­nies aux per­son­nes phy­si­ques con­cer­nées de maniè­re clai­re et faci­le­ment iden­ti­fia­ble, au plus tard au moment de la pre­miè­re inter­ac­tion ou expo­si­ti­on. Les infor­ma­ti­ons doi­vent être con­for­mes aux exi­gen­ces appli­ca­bles en matiè­re d’accessibilité.

(136) Les obli­ga­ti­ons impo­sées aux four­nis­seurs et aux déployeurs de cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le par le pré­sent règle­ment de per­mett­re la détec­tion et la divul­ga­ti­on du fait que les résul­tats de ces systè­mes sont géné­rés ou mani­pulés de maniè­re arti­fi­ci­el­le sont par­ti­cu­liè­re­ment per­ti­nen­tes pour faci­li­ter la mise en œuvre effec­ti­ve du règle­ment (UE) 2022/2065. Cela s’ap­pli­que en par­ti­cu­lier en ce qui con­cer­ne les obli­ga­ti­ons des four­nis­seurs de très gran­des pla­te­for­mes en ligne ou de très grands moteurs de recher­che en ligne d’i­den­ti­fier et d’at­té­nuer les ris­ques sys­té­mi­ques qui pour­rai­ent décou­ler de la dif­fu­si­on de con­te­nus qui ont été géné­rés ou mani­pulés arti­fi­ci­el­le­ment, en par­ti­cu­lier le ris­que d’ef­fets néga­tifs réels ou pré­vi­si­bles sur les pro­ce­s­sus démo­cra­ti­ques, le débat civi­que et les pro­ce­s­sus élec­toraux, y com­pris par le biais de la dés­in­for­ma­ti­on. L’ob­li­ga­ti­on d’é­ti­que­ter le con­te­nu géné­ré par les systè­mes d’in­tel­li­gence arti­fi­ci­el­le en ver­tu du pré­sent règle­ment est sans pré­ju­di­ce de l’ob­li­ga­ti­on pré­vue à l’ar­tic­le 16, para­gra­phe 6, du règle­ment (UE) 2022/2065 pour les four­nis­seurs de ser­vices d’hé­ber­ge­ment de trai­ter les noti­fi­ca­ti­ons de con­te­nus illi­ci­tes reçues con­for­mé­ment à l’ar­tic­le 16, para­gra­phe 1, dudit règle­ment et ne dev­rait pas influen­cer l’éva­lua­ti­on et la décis­i­on con­cer­nant le carac­tère illi­ci­te du con­te­nu spé­ci­fi­que. Cet­te éva­lua­ti­on doit être effec­tuée uni­quement en réfé­rence aux règles régis­sant la léga­li­té du contenu.

6. Les para­gra­phes 1 à 4 n’af­fec­tent pas les exi­gen­ces et obli­ga­ti­ons énon­cées au cha­pit­re III et ne portent pas att­ein­te aux aut­res obli­ga­ti­ons de trans­pa­rence pré­vues par le droit de l’U­ni­on ou le droit natio­nal pour les per­son­nes qui déploi­ent des systè­mes d’i­den­ti­fi­ca­ti­on automatique.

(137) Le respect des obli­ga­ti­ons de trans­pa­rence pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le cou­verts par le pré­sent règle­ment ne doit pas être inter­pré­té com­me une indi­ca­ti­on que l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le ou de ses résul­tats est lici­te au regard du pré­sent règle­ment ou d’aut­res légis­la­ti­ons de l’U­ni­on et des États mem­bres, et ne doit pas por­ter pré­ju­di­ce aux aut­res obli­ga­ti­ons de trans­pa­rence impo­sées aux four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le par la légis­la­ti­on de l’U­ni­on ou la légis­la­ti­on nationale.

7. L’AI Office encou­ra­ge et faci­li­te l’é­la­bo­ra­ti­on de codes de bon­nes pra­ti­ques au niveau de l’U­ni­on afin de faci­li­ter la mise en œuvre effec­ti­ve des obli­ga­ti­ons en matiè­re de détec­tion et d’é­ti­que­ta­ge des con­te­nus cré­és ou mani­pulés arti­fi­ci­el­le­ment. La Com­mis­si­on peut adop­ter des actes d’exé­cu­ti­on pour approu­ver ces codes de con­duite con­for­mé­ment à la pro­cé­du­re pré­vue à l’ar­tic­le 56, para­gra­phe 6. Si elle esti­me que le code n’est pas adé­quat, la Com­mis­si­on peut adop­ter un acte d’exé­cu­ti­on pré­cisant les règles com­mu­nes pour la mise en œuvre de ces obli­ga­ti­ons, con­for­mé­ment à la pro­cé­du­re d’ex­amen pré­vue à l’ar­tic­le 98, para­gra­phe 2.

(135) Sans pré­ju­di­ce du carac­tère obli­ga­toire et de la plei­ne appli­ca­bi­li­té des obli­ga­ti­ons de trans­pa­rence, la Com­mis­si­on peut éga­le­ment encou­ra­ger et faci­li­ter l’é­la­bo­ra­ti­on de codes de con­duite au niveau de l’U­ni­on afin de faci­li­ter la mise en œuvre effec­ti­ve des obli­ga­ti­ons rela­ti­ves à la détec­tion et à l’é­ti­que­ta­ge des con­te­nus cré­és ou mani­pulés arti­fi­ci­el­le­ment, y com­pris pour sou­te­nir des arran­ge­ments pra­ti­ques visa­nt à rend­re, le cas échéant, les méca­nis­mes de détec­tion acce­s­si­bles et à faci­li­ter la coopé­ra­ti­on avec d’aut­res acteurs tout au long de la chaî­ne de valeur, à dif­fu­ser des con­te­nus ou à véri­fier leur authen­ti­ci­té et leur pro­ven­an­ce afin de per­mett­re au public de distin­guer effi­ca­ce­ment les con­te­nus géné­rés par des moy­ens artificiels.

Cha­pit­re V Modè­les d’IA à usa­ge général

Sec­tion 1 Règles de classification

Artic­le 51 Clas­si­fi­ca­ti­on des modè­les d’IA à usa­ge géné­ral en tant que modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique

1. Un modè­le d’AI à usa­ge géné­ral doit être clas­sé com­me modè­le d’AI à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que s’il rem­plit l’u­ne des con­di­ti­ons suivantes :

(a) il a des capa­ci­tés d’im­pact éle­vé éva­luées sur la base d’ou­tils tech­ni­ques et de métho­do­lo­gies appro­priés, y com­pris des indi­ca­teurs et des critères de référence ;

(b) based on a decis­i­on of the Com­mis­si­on, ex offi­cio or fol­lo­wing a qua­li­fi­ed alert from the sci­en­ti­fic panel, it has capa­bi­li­ties or an impact equi­va­lent to tho­se set out in point (a) having regard to the cri­te­ria set out in Annex XIII.

2. Un modè­le d’IA à usa­ge géné­ral est pré­su­mé avoir des capa­ci­tés d’im­pact éle­vé con­for­mé­ment au para­gra­phe 1, point (a), si la quan­ti­té cumulée de cal­cul uti­li­sée pour son ent­raî­ne­ment, mesu­rée dans des opé­ra­ti­ons à point flot­tant, est supé­ri­eu­re à 1025.

3. La Com­mis­si­on adop­te des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 pour modi­fier les seuils visés aux para­gra­phes 1 et 2 du pré­sent artic­le, ain­si que pour com­plé­ter, si néces­saire, les critères et indi­ca­teurs de réfé­rence à la lumiè­re de l’é­vo­lu­ti­on des tech­no­lo­gies, com­me les amé­lio­ra­ti­ons algo­rith­mi­ques ou l’ac­croi­s­se­ment de l’ef­fi­ca­ci­té du maté­ri­el, afin que ces seuils reflè­tent l’é­tat de l’art.

(110) Les modè­les d’IA à usa­ge géné­ral pour­rai­ent poser des ris­ques sys­té­mi­ques qui inclu­ent, mais ne sont pas limi­tés à, tout effet néga­tif réel ou pré­vi­si­ble en rap­port avec des acci­dents majeurs, des per­tur­ba­ti­ons de sec­teurs cri­ti­ques et des con­sé­quen­ces sérieu­ses pour la san­té et la sécu­ri­té publi­ques ; tout effet néga­tif réel ou pré­vi­si­ble sur les pro­ce­s­sus démo­cra­ti­ques, la sécu­ri­té publi­que et éco­no­mi­que ; la dif­fu­si­on de con­te­nus illé­gaux, faux ou dis­cri­mi­na­toires. Les ris­ques sys­té­mi­ques doi­vent être con­sidé­rés com­me aug­men­tant avec les capa­ci­tés et la por­tée du modè­le, peu­vent sur­ve­nir tout au long du cycle de vie du modè­le, et sont influen­cés par les con­di­ti­ons d’a­bus, la fia­bi­li­té du modè­le, l’é­qui­té et la sécu­ri­té du modè­le, le niveau d’au­to­no­mie du modè­le, son accès aux outils, les moda­li­tés nou­vel­les ou com­bi­nées, les stra­té­gies de dif­fu­si­on et de dis­tri­bu­ti­on, le poten­tiel de sup­pres­si­on des gar­de-fous et d’aut­res fac­teurs. In par­ti­cu­lar, inter­na­tio­nal approa­ches have iden­ti­fi­ed up to the need to pay atten­ti­on to risks from poten­ti­al inten­tio­nal misu­se or unin­ten­ded issues of con­trol rela­ting to ali­gnment with human intent ; che­mical, bio­lo­gi­cal, radio­lo­gi­cal, and nuclear risks, such as the ways in which bar­riers to ent­ry can be lowe­red, inclu­ding for wea­pons deve­lo­p­ment, design acqui­si­ti­on, or use ; offen­si­ve cyber capa­bi­li­ties, such as the ways in vul­nerabi­li­ty dis­co­very, explo­ita­ti­on, or ope­ra­tio­nal use can be enab­led ; the effects of inter­ac­tion and tool use, inclu­ding for exam­p­le the capa­ci­ty to con­trol phy­si­cal systems and inter­fe­re with cri­ti­cal infras­truc­tu­re ; risks from models of making copies of them­sel­ves or ’self-repli­ca­ting’ or trai­ning other models ; the ways in which models can give rise to harmful bias and dis­cri­mi­na­ti­on with risks to indi­vi­du­als, com­mu­ni­ties or socie­ties ; the faci­li­ta­ti­on of dis­in­for­ma­ti­on or har­ming pri­va­cy with thre­ats to demo­cra­tic values and human rights ; risk that a par­ti­cu­lar event could lead to a chain reac­tion with con­sidera­ble nega­ti­ve effects that could affect up to an enti­re city, an enti­re domain acti­vi­ty or an enti­re community.

(111) Il est appro­prié d’é­ta­b­lir une métho­do­lo­gie pour la clas­si­fi­ca­ti­on des modè­les d’IA à usa­ge géné­ral en tant que modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques. Étant don­né que les ris­ques sys­té­mi­ques résul­tent de capa­ci­tés par­ti­cu­liè­re­ment éle­vées, un modè­le d’IA à usa­ge géné­ral dev­rait être con­sidé­ré com­me pré­sen­tant des ris­ques sys­té­mi­ques s’il pos­sè­de des capa­ci­tés à fort impact, éva­luées sur la base d’ou­tils tech­ni­ques et de métho­do­lo­gies appro­priés, ou un impact signi­fi­ca­tif sur le mar­ché inter­ne en rai­son de sa por­tée. Les capa­ci­tés à fort impact dans les modè­les d’IA à usa­ge géné­ral sont des capa­ci­tés qui cor­re­spon­dent ou dépas­sent les capa­ci­tés enre­gi­strées dans les modè­les d’IA à usa­ge géné­ral les plus avan­cés. La gam­me com­plè­te des capa­ci­tés d’un modè­le pour­rait être mieux com­pri­se après sa mise sur le mar­ché ou lorsque les déployeurs inter­agis­sent avec le modè­le. Selon l’é­tat de l’art au moment de l’en­trée en vigueur du pré­sent règle­ment, la quan­ti­té cumulée de cal­cul uti­li­sée pour l’en­traî­ne­ment du modè­le d’IA à usa­ge géné­ral mesu­rée dans des opé­ra­ti­ons à points flot­tants est l’u­ne des appro­xi­ma­ti­ons per­ti­nen­tes pour les capa­ci­tés du modè­le. La quan­ti­té cumulée de cal­cul uti­li­sée pour l’en­traî­ne­ment com­prend le cal­cul uti­li­sé dans le cad­re des acti­vi­tés et des métho­des desti­nées à amé­lio­rer les capa­ci­tés du modè­le avant le déploie­ment, tel­les que le pré-ent­raî­ne­ment, la géné­ra­ti­on de don­nées syn­thé­ti­ques et le rég­la­ge fin. Par con­sé­quent, un seuil initi­al d’opé­ra­ti­ons à point flot­tant dev­rait être fixé, qui, s’il est att­eint par un modè­le d’IA à usa­ge géné­ral, con­duit à une pré­somp­ti­on que le modè­le est un modè­le d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques. Ce seuil dev­rait être aju­s­té au fil du temps pour reflé­ter les chan­ge­ments tech­no­lo­gi­ques et indu­stri­els, tels que les amé­lio­ra­ti­ons algo­rith­mi­ques ou l’aug­men­ta­ti­on de l’ef­fi­ca­ci­té du maté­ri­el, et dev­rait être com­plé­té par des points de réfé­rence et des indi­ca­teurs de la capa­ci­té du modèle.

Pour ce fai­re, le Bureau AI dev­rait s’en­ga­ger avec la com­mun­au­té sci­en­ti­fi­que, l’in­du­strie, la socié­té civi­le et d’aut­res experts. Les seuils, ain­si que les outils et les critères de réfé­rence pour l’éva­lua­ti­on des capa­ci­tés à fort impact, dev­rai­ent être des pré­dic­teurs forts de la géné­ra­li­té, de ses capa­ci­tés et du ris­que sys­té­mi­que asso­cié des modè­les d’IA à usa­ge géné­ral, et pour­rai­ent prend­re en comp­te la maniè­re dont le modè­le sera pla­cé sur le mar­ché ou le nombre d’uti­li­sa­teurs qu’il pour­rait affec­ter. Pour com­plé­ter ce système, il dev­rait être pos­si­ble pour la Com­mis­si­on de prend­re des décis­i­ons indi­vi­du­el­les désignant un modè­le d’IA à usa­ge géné­ral com­me modè­le d’IA à ris­que sys­té­mi­que s’il est con­sta­té que ce modè­le a des capa­ci­tés ou un impact équi­va­lents à ceux cap­tu­rés par le seuil fixé. Cet­te décis­i­on dev­rait être pri­se sur la base d’u­ne éva­lua­ti­on glo­ba­le des critères de dési­gna­ti­on d’un modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que énon­cés dans une anne­xe au pré­sent règle­ment, tels que la qua­li­té ou la tail­le de l’en­sem­ble de don­nées de for­ma­ti­on, le nombre d’uti­li­sa­teurs pro­fes­si­on­nels et finaux, ses moda­li­tés d’en­trée et de sor­tie, son niveau d’au­to­no­mie et d’é­vo­lu­tivi­té, ou les outils aux­quels il a accès.

Sur deman­de moti­vée d’un four­nis­seur dont le modè­le a été dési­gné com­me modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, la Com­mis­si­on dev­rait prend­re en comp­te la deman­de et pour­rait déci­der de rééva­luer si le modè­le d’IA à usa­ge géné­ral peut enco­re être con­sidé­ré com­me pré­sen­tant des ris­ques systémiques.

Artic­le 52 Procédure

1. Lorsqu’un modè­le d’IA à usa­ge géné­ral rem­plit la con­di­ti­on visée à l’ar­tic­le 51, para­gra­phe 1, point a), le four­nis­seur con­cer­né doit en infor­mer la Com­mis­si­on sans délai et, en tout état de cau­se, dans les deux semain­es sui­vant la mise en œuvre de cet­te exi­gence ou la pri­se de con­nais­sance de sa mise en œuvre. Cet­te noti­fi­ca­ti­on com­prend les infor­ma­ti­ons néces­saires pour démon­trer que l’e­xi­gence per­ti­nen­te a été respec­tée. Si la Com­mis­si­on prend con­nais­sance d’un modè­le d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques dont elle n’a pas été infor­mée, elle peut déci­der de le dési­gner com­me un modè­le pré­sen­tant un ris­que systémique.

2. Le four­nis­seur d’un modè­le d’IA à usa­ge géné­ral qui rem­plit la con­di­ti­on visée à l’ar­tic­le 51(1), point (a), peut pré­sen­ter, lors de sa noti­fi­ca­ti­on, des argu­ments suf­fi­sam­ment étay­és pour démon­trer que, excep­ti­on­nel­le­ment, bien qu’il rem­plis­se cet­te exi­gence, le modè­le d’IA à usa­ge géné­ral ne pré­sen­te pas, en rai­son de ses carac­té­ri­sti­ques spé­ci­fi­ques, de ris­ques sys­té­mi­ques et ne dev­rait donc pas être clas­sé com­me modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique.

3. Si la Com­mis­si­on con­clut que les argu­ments pré­sen­tés con­for­mé­ment au para­gra­phe 2 ne sont pas suf­fi­sam­ment étay­és et que le four­nis­seur con­cer­né n’a pas été en mesu­re de démon­trer que le modè­le d’IA à usa­ge géné­ral ne pré­sen­te pas, en rai­son de ses carac­té­ri­sti­ques spé­ci­fi­ques, de ris­ques sys­té­mi­ques, elle rejet­te ces argu­ments, et le modè­le d’IA à usa­ge géné­ral est con­sidé­ré com­me un modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique.

4. La Com­mis­si­on peut dési­gner un modè­le d’IA à usa­ge géné­ral com­me pré­sen­tant des ris­ques sys­té­mi­ques, d’of­fice ou à la suite d’u­ne aler­te qua­li­fi­ée du grou­pe sci­en­ti­fi­que con­for­mé­ment à l’ar­tic­le 90, para­gra­phe 1, point (a), sur la base des critères énon­cés à l’an­ne­xe XIII.

La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 en vue de modi­fier l’an­ne­xe XIII en pré­cisant et en actua­li­sant les critères énon­cés dans cet­te annexe.

5. Sur deman­de moti­vée d’un four­nis­seur dont le modè­le a été dési­gné com­me modè­le d’AI à voca­ti­on géné­ra­le pré­sen­tant un ris­que sys­té­mi­que con­for­mé­ment au para­gra­phe 4, la Com­mis­si­on prend en con­sidé­ra­ti­on la deman­de et peut déci­der de rééva­luer si le modè­le d’AI à voca­ti­on géné­ra­le peut enco­re être con­sidé­ré com­me pré­sen­tant des ris­ques sys­té­mi­ques sur la base des critères énon­cés à l’an­ne­xe XIII. Cet­te deman­de doit com­porter des motifs objec­tifs, détail­lés et nou­veaux qui ont pris nais­sance depuis la décis­i­on de dési­gna­ti­on. Les four­nis­seurs peu­vent deman­der une rééva­lua­ti­on au plus tôt six mois après la décis­i­on de dési­gna­ti­on. Si, à la suite de sa rééva­lua­ti­on, la Com­mis­si­on déci­de de main­te­nir la dési­gna­ti­on en tant que modè­le d’AI à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, les four­nis­seurs peu­vent deman­der une rééva­lua­ti­on au plus tôt six mois après cet­te décision.

6. La Com­mis­si­on veil­le à ce qu’u­ne liste des modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que soit publiée et tient cet­te liste à jour, sans pré­ju­di­ce de la néces­si­té de respec­ter et de pro­té­ger les droits de pro­prié­té intellec­tu­el­le et les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les ou les secrets com­mer­ci­aux, con­for­mé­ment au droit de l’U­ni­on et au droit national.

(112) Il est éga­le­ment néces­saire de cla­ri­fier une pro­cé­du­re pour la clas­si­fi­ca­ti­on d’un modè­le d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques. Un modè­le d’IA à usa­ge géné­ral qui répond au seuil appli­ca­ble pour les capa­ci­tés à fort impact dev­rait être pré­su­mé être un modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que. Le four­nis­seur dev­rait infor­mer l’AI Office au plus tard deux semain­es après que les exi­gen­ces ont été rem­plies ou qu’il est deve­nu évi­dent qu’un modè­le d’IA à usa­ge géné­ral répon­dra aux exi­gen­ces qui con­dui­sent à la pré­somp­ti­on. Ceci est par­ti­cu­liè­re­ment per­ti­nent en ce qui con­cer­ne le seuil des opé­ra­ti­ons à points flot­tants, car l’en­traî­ne­ment des modè­les d’IA à usa­ge géné­ral néces­si­te une pla­ni­fi­ca­ti­on importan­te, qui inclut l’al­lo­ca­ti­on en amont des res­sour­ces de cal­cul et, par con­sé­quent, les four­nis­seurs de modè­les d’IA à usa­ge géné­ral sont en mesu­re de savoir si leur modè­le att­ein­drait le seuil avant que l’en­traî­ne­ment ne soit ache­vé. Dans le cad­re de cet­te noti­fi­ca­ti­on, le four­nis­seur dev­rait être en mesu­re de démon­trer que, en rai­son de ses carac­té­ri­sti­ques spé­ci­fi­ques, un modè­le d’IA à usa­ge géné­ral ne pré­sen­te pas de ris­ques sys­té­mi­ques, et qu’il ne dev­rait donc pas être clas­sé com­me un modè­le d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques. Cet­te infor­ma­ti­on est pré­cieu­se pour que l’AI Office pui­s­se anti­ci­per la mise sur le mar­ché de modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques et que les four­nis­seurs pui­s­sent com­men­cer à s’en­ga­ger avec l’AI Office dès le début. Cet­te infor­ma­ti­on est par­ti­cu­liè­re­ment importan­te en ce qui con­cer­ne les modè­les d’IA à usa­ge géné­ral dont la sor­tie en open source est pré­vue, étant don­né qu’a­près la sor­tie du modè­le en open source, les mesu­res néces­saires pour assurer la con­for­mi­té avec les obli­ga­ti­ons pré­vues par le pré­sent règle­ment peu­vent être plus dif­fi­ci­les à mett­re en œuvre.

(113) Si la Com­mis­si­on se rend comp­te qu’un modè­le d’IA à usa­ge géné­ral répond aux exi­gen­ces pour être clas­sé com­me modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, ce qui n’é­tait pas con­nu aupa­ra­vant ou dont le four­nis­seur con­cer­né n’a pas noti­fié la Com­mis­si­on, cel­le-ci dev­rait avoir le pou­voir de le dési­gner ain­si. Un système d’a­ler­tes qua­li­fi­ées dev­rait garan­tir que l’AI Office soit infor­mé par le panel sci­en­ti­fi­que des modè­les d’IA à usa­ge géné­ral qui pour­rai­ent éven­tu­el­le­ment être clas­sés com­me modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, en plus des acti­vi­tés de sur­veil­lan­ce de l’AI Office.

Sec­tion 2 Obli­ga­ti­ons pour les four­nis­seurs de modè­les d’IA à usa­ge général

Artic­le 53 Obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge général

(101) Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral ont un rôle et une responsa­bi­li­té par­ti­cu­liers le long de la chaî­ne de valeur de l’IA, étant don­né que les modè­les qu’ils four­nis­sent peu­vent con­sti­tuer la base d’u­ne série de systè­mes en aval, sou­vent four­nis par des four­nis­seurs en aval, qui néces­si­tent une bon­ne com­pré­hen­si­on des modè­les et de leurs capa­ci­tés, à la fois pour per­mett­re l’in­té­gra­ti­on de ces modè­les dans leurs pro­duits et pour satis­fai­re à leurs obli­ga­ti­ons en ver­tu de la pré­sen­te régle­men­ta­ti­on ou d’aut­res régle­men­ta­ti­ons. Par con­sé­quent, des mesu­res de trans­pa­rence pro­por­ti­onnées dev­rai­ent être mises en place, y com­pris l’é­ta­blis­se­ment et le main­ti­en à jour de la docu­men­ta­ti­on, et la mise à dis­po­si­ti­on d’in­for­ma­ti­ons sur le modè­le d’IA à usa­ge géné­ral pour son uti­li­sa­ti­on par les four­nis­seurs en aval. La docu­men­ta­ti­on tech­ni­que doit être pré­pa­rée et tenue à jour par le four­nis­seur du modè­le d’IA à usa­ge géné­ral dans le but d’êt­re mise à la dis­po­si­ti­on, sur deman­de, de l’AI Office et des auto­ri­tés natio­na­les com­pé­ten­tes. L’en­sem­ble mini­mal d’é­lé­ments à inclu­re dans cet­te docu­men­ta­ti­on dev­rait être défi­ni dans des anne­xes spé­ci­fi­ques au pré­sent règle­ment. La Com­mis­si­on dev­rait être habi­li­tée à modi­fier ces anne­xes par voie d’ac­tes délé­gués à la lumiè­re de l’é­vo­lu­ti­on des technologies.

(109) La con­for­mi­té avec les obli­ga­ti­ons appli­ca­bles aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rait être pro­por­ti­onnée au type de four­nis­seur de modè­les, à l’ex­clu­si­on de la néces­si­té de con­for­mi­té pour les per­son­nes qui déve­lo­p­pent ou uti­li­sent des modè­les à des fins de recher­che non pro­fes­si­on­nel­le ou sci­en­ti­fi­que, qui dev­rai­ent néan­mo­ins être encou­ra­gées à se con­for­mer volon­tai­re­ment à ces obli­ga­ti­ons. Sans pré­ju­di­ce de la légis­la­ti­on de l’U­ni­on sur les droits d’au­teur, la con­for­mi­té avec ces obli­ga­ti­ons dev­rait tenir dûment comp­te de la tail­le du four­nis­seur et per­mett­re des moy­ens sim­pli­fi­és de con­for­mi­té pour les PME, y com­pris les start-ups, qui ne dev­rai­ent pas repré­sen­ter un coût exce­s­sif ni décou­ra­ger l’uti­li­sa­ti­on de tels modè­les. En cas de modi­fi­ca­ti­on ou de mise au point d’un modè­le, les obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rai­ent être limi­tées à cet­te modi­fi­ca­ti­on ou à cet­te mise au point, par exemp­le en com­plé­tant la docu­men­ta­ti­on tech­ni­que exi­stan­te par des infor­ma­ti­ons sur les modi­fi­ca­ti­ons, y com­pris de nou­vel­les sources de don­nées de for­ma­ti­on, en tant que moy­en de satis­fai­re aux obli­ga­ti­ons rela­ti­ves à la chaî­ne de valeur pré­vues par le pré­sent règlement.

1. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral doivent :

(a) éta­blis­sent et tien­nent à jour la docu­men­ta­ti­on tech­ni­que du modè­le, y com­pris son pro­ce­s­sus de for­ma­ti­on et d’es­sai et les résul­tats de son éva­lua­ti­on, qui doit con­te­nir au mini­mum les infor­ma­ti­ons pré­vues à l’an­ne­xe XI, en vue de la mett­re à la dis­po­si­ti­on, sur deman­de, de l’Of­fice AI et des auto­ri­tés natio­na­les compétentes ;

(b) éta­b­lir, tenir à jour et mett­re à dis­po­si­ti­on des infor­ma­ti­ons et de la docu­men­ta­ti­on pour les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ont l’in­ten­ti­on d’in­té­grer le modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral dans leurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Sans pré­ju­di­ce de la néces­si­té d’ob­ser­ver et de pro­té­ger les droits de pro­prié­té intellec­tu­el­le et les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les ou les secrets com­mer­ci­aux con­for­mé­ment au droit de l’U­ni­on et au droit natio­nal, les infor­ma­ti­ons et la docu­men­ta­ti­on doivent :

(i) per­met­tent aux four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le d’a­voir une bon­ne com­pré­hen­si­on des capa­ci­tés et des limi­tes du modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral et de se con­for­mer aux obli­ga­ti­ons qui leur incom­bent en ver­tu du pré­sent règle­ment ; et

(ii) con­ti­en­nent, au mini­mum, les élé­ments défi­nis à l’an­ne­xe XII ;

(c) met en place une poli­tique visa­nt à se con­for­mer à la légis­la­ti­on de l’U­ni­on euro­pé­en­ne sur le droit d’au­teur et les droits voisins, et en par­ti­cu­lier à iden­ti­fier et à se con­for­mer, y com­pris par le biais de tech­no­lo­gies de poin­te, à une réser­ve de droits expri­mée con­for­mé­ment à l’ar­tic­le 4(3) de la Direc­ti­ve (UE) 2019/790 ;

(105) Les modè­les d’IA à usa­ge géné­ral, en par­ti­cu­lier les modè­les d’IA géné­ra­tifs de gran­de tail­le, capa­bles de géné­rer du tex­te, des images et d’aut­res con­te­nus, pré­sen­tent des oppor­tu­ni­tés d’in­no­va­ti­on uni­ques, mais aus­si des défis pour les arti­stes, auteurs et aut­res cré­a­teurs, ain­si que pour la maniè­re dont leurs con­te­nus créa­tifs sont cré­és, dis­tri­bués, uti­li­sés et con­som­més. Le déve­lo­p­pe­ment et la for­ma­ti­on de tels modè­les néces­si­tent l’ac­cès à de gran­des quan­ti­tés de tex­tes, d’i­mages, de vidé­os et d’aut­res don­nées. Les tech­ni­ques d’ex­plo­ra­ti­on de tex­te et de don­nées peu­vent être lar­ge­ment uti­li­sées dans ce con­tex­te pour la récup­é­ra­ti­on et l’ana­ly­se de ces con­te­nus, qui peu­vent être pro­té­gés par des droits d’au­teur et des droits con­ne­xes. Tou­te uti­li­sa­ti­on de con­te­nus pro­té­gés par des droits d’au­teur requiert l’au­to­ri­sa­ti­on du titu­lai­re des droits con­cer­né, à moins que des excep­ti­ons et limi­ta­ti­ons per­ti­nen­tes en matiè­re de droits d’au­teur ne s’ap­pli­quent. La direc­ti­ve (UE) 2019/790 a intro­duit des excep­ti­ons et des limi­ta­ti­ons per­met­tant la repro­duc­tion et l’ex­tra­c­tion d’œu­vres ou d’aut­res sujets, à des fins d’ex­plo­ra­ti­on de tex­te et de don­nées, sous cer­tai­nes con­di­ti­ons. En ver­tu de ces règles, les titu­lai­res de droits peu­vent choi­sir de réser­ver leurs droits sur leurs œuvres ou aut­res sujets afin d’empêcher l’ex­tra­c­tion de tex­te et de don­nées, sauf si cela est fait à des fins de recher­che sci­en­ti­fi­que. Lorsque le droit de déro­ga­ti­on a été expres­sé­ment réser­vé de maniè­re appro­priée, les four­nis­seurs de modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral doi­vent obte­nir l’au­to­ri­sa­ti­on des titu­lai­res de droits s’ils sou­hai­tent effec­tuer des recher­ches de tex­te et de don­nées sur de tel­les œuvres.

(106) Les four­nis­seurs qui pla­cent des modè­les d’IA à usa­ge géné­ral sur le mar­ché de l’U­ni­on dev­rai­ent assurer la con­for­mi­té avec les obli­ga­ti­ons per­ti­nen­tes du pré­sent règle­ment. cet effet, les four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rai­ent mett­re en place une poli­tique de con­for­mi­té avec la légis­la­ti­on de l’U­ni­on sur le droit d’au­teur et les droits con­ne­xes, en par­ti­cu­lier pour iden­ti­fier et respec­ter la réser­ve de droits expri­mée par les titu­lai­res de droits con­for­mé­ment à l’ar­tic­le 4, para­gra­phe 3, de la direc­ti­ve (UE) 2019/790. Tout four­nis­seur pla­çant un modè­le d’IA à usa­ge géné­ral sur le mar­ché de l’U­ni­on dev­rait se con­for­mer à cet­te obli­ga­ti­on, quel­le que soit la juri­dic­tion dans laquel­le se dérou­lent les actes rele­vant du droit d’au­teur qui sous-ten­dent la for­ma­ti­on de ces modè­les d’IA à usa­ge géné­ral. Ceci est néces­saire pour assurer un ter­rain d’é­ga­li­té ent­re les four­nis­seurs de modè­les d’IA à usa­ge géné­ral, où aucun four­nis­seur ne dev­rait être en mesu­re de gagner un avan­ta­ge con­cur­ren­tiel sur le mar­ché de l’U­ni­on en appli­quant des nor­mes de droit d’au­teur infé­ri­eu­res à cel­les four­nies dans l’Union.

(108) En ce qui con­cer­ne les obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral de mett­re en place une poli­tique de con­for­mi­té avec la légis­la­ti­on de l’U­ni­on sur les droits d’au­teur et de mett­re à la dis­po­si­ti­on du public un résu­mé du con­te­nu uti­li­sé pour la for­ma­ti­on, l’AI Office dev­rait con­trô­ler si le four­nis­seur s’est acquit­té de ces obli­ga­ti­ons sans véri­fier ou pro­cé­der à une éva­lua­ti­on tra­vail par tra­vail des don­nées de la for­ma­ti­on en ter­mes de con­for­mi­té avec les droits d’au­teur. Le pré­sent règle­ment n’a pas d’in­ci­dence sur l’ap­pli­ca­ti­on des règles rela­ti­ves au droit d’au­teur tel­les qu’el­les sont pré­vues par le droit de l’Union.

(d) éla­bo­rer et mett­re à la dis­po­si­ti­on du public un résu­mé suf­fi­sam­ment détail­lé du con­te­nu uti­li­sé pour la for­ma­ti­on au modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, con­for­mé­ment à un modè­le four­ni par l’AI Office.

(107) Afin d’ac­croît­re la trans­pa­rence des don­nées uti­li­sées dans la pré­for­ma­ti­on et la for­ma­ti­on des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, y com­pris les tex­tes et les don­nées pro­té­gés par le droit d’au­teur, il est suf­fi­sant que les four­nis­seurs de ces modè­les éta­blis­sent et met­tent à la dis­po­si­ti­on du public un résu­mé suf­fi­sam­ment détail­lé du con­te­nu uti­li­sé pour la for­ma­ti­on du modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral. Tout en tenant comp­te de la néces­si­té de pro­té­ger les secrets com­mer­ci­aux et les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les, ce modè­le dev­rait être géné­ra­le­ment com­plet dans son champ d’ap­pli­ca­ti­on plutôt que tech­ni­quement détail­lé pour per­mett­re aux par­ties ayant des inté­rêts légiti­mes, y com­pris les déten­teurs de droits d’au­teur, d’e­xer­cer et d’ap­pli­quer leurs droits en ver­tu de la légis­la­ti­on de l’U­ni­on, par exemp­le en énu­mé­rant les prin­ci­pa­les coll­ec­tions ou ensem­bles de don­nées qui ont ser­vi à la for­ma­ti­on du modè­le, tels que les gran­des bases de don­nées pri­vées ou publi­ques ou les archi­ves de don­nées, et en four­nis­sant une expli­ca­ti­on nar­ra­ti­ve sur les aut­res sources de don­nées uti­li­sées. Il est appro­prié pour l’AI Office de four­nir un modè­le pour le résu­mé, qui dev­rait être simp­le, effi­cace, et per­mett­re au four­nis­seur de four­nir le résu­mé requis sous for­me narrative.

2. Les obli­ga­ti­ons énon­cées au para­gra­phe 1, points (a) et (b), ne s’ap­pli­quent pas aux four­nis­seurs de modè­les d’IA qui sont publiés sous une licence lib­re et ouver­te per­met­tant l’ac­cès, l’uti­li­sa­ti­on, la modi­fi­ca­ti­on et la dis­tri­bu­ti­on du modè­le, et dont les paramè­tres, y com­pris les poids, les infor­ma­ti­ons sur l’ar­chi­tec­tu­re du modè­le et les infor­ma­ti­ons sur l’uti­li­sa­ti­on du modè­le, sont mis à la dis­po­si­ti­on du public. Cet­te excep­ti­on ne s’ap­pli­que pas aux modè­les AI à usa­ge géné­ral pré­sen­tant des ris­ques systémiques.

(102) Les logi­ciels et les don­nées, y com­pris les modè­les, publiés sous une licence lib­re et open source qui per­met­te leur par­ta­ge ouvert et où les uti­li­sa­teurs pui­s­sent libre­ment y accé­der, les uti­li­ser, les modi­fier et les redis­tri­buer, ou des ver­si­ons modi­fi­ées de ceux-ci, peu­vent con­tri­buer à la recher­che et à l’in­no­va­ti­on sur le mar­ché et peu­vent offrir des oppor­tu­ni­tés de crois­sance signi­fi­ca­ti­ves pour l’é­co­no­mie de l’U­ni­on. Les modè­les d’IA à usa­ge géné­ral publiés sous des licen­ces libres et à source ouver­te dev­rai­ent être con­sidé­rés com­me garan­tis­sant des niveaux éle­vés de trans­pa­rence et d’ou­ver­tu­re si leurs paramè­tres, y com­pris les poids, les infor­ma­ti­ons sur l’ar­chi­tec­tu­re du modè­le et les infor­ma­ti­ons sur l’uti­li­sa­ti­on du modè­le sont mis à la dis­po­si­ti­on du public. La licence dev­rait être con­sidé­rée com­me lib­re et open-source éga­le­ment lorsqu’el­le per­met aux uti­li­sa­teurs d’exé­cu­ter, de copi­er, de dis­tri­buer, d’é­tu­dier, de modi­fier et d’a­mé­lio­rer des logi­ciels et des don­nées, y com­pris des modè­les, à con­di­ti­on que le four­nis­seur ori­gi­nal du modè­le soit cré­di­té, que les con­di­ti­ons de dis­tri­bu­ti­on iden­ti­ques ou com­pa­ra­bles soi­ent respectées.

3. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral coopè­rent, en tant que de beso­in, avec la Com­mis­si­on et les auto­ri­tés natio­na­les com­pé­ten­tes dans l’e­xer­ci­ce des com­pé­ten­ces et des pou­voirs qui leur sont con­fé­rés par le pré­sent règlement.

4. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral peu­vent se fon­der sur des codes de bon­ne pra­tique au sens de l’ar­tic­le 56 pour démon­trer leur con­for­mi­té aux obli­ga­ti­ons énon­cées au para­gra­phe 1 du pré­sent artic­le, jus­qu’à ce qu’u­ne nor­me har­mo­ni­sée soit publiée. La con­for­mi­té aux nor­mes har­mo­ni­sées euro­pé­en­nes con­fè­re aux four­nis­seurs une pré­somp­ti­on de con­for­mi­té dans la mesu­re où ces nor­mes cou­vrent ces obli­ga­ti­ons. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral qui n’ad­hè­rent pas à un code de pra­tique approu­vé ou qui ne respec­tent pas une nor­me har­mo­ni­sée euro­pé­en­ne doi­vent démon­trer d’aut­res moy­ens adé­quats de con­for­mi­té en vue d’u­ne éva­lua­ti­on par la Commission.

5. Afin de faci­li­ter le respect de l’an­ne­xe XI, en par­ti­cu­lier des points 2 (d) et (e) de cel­le-ci, la Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97 pour détail­ler les métho­des de mesu­re et de cal­cul en vue de per­mett­re une docu­men­ta­ti­on com­pa­ra­ble et vérifiable.

6. La Com­mis­si­on est habi­li­tée à adop­ter des actes délé­gués con­for­mé­ment à l’ar­tic­le 97, para­gra­phe 2, afin de modi­fier les anne­xes XI et XII à la lumiè­re de l’é­vo­lu­ti­on des technologies.

7. Tou­te infor­ma­ti­on ou docu­men­ta­ti­on obte­nue en ver­tu du pré­sent artic­le, y com­pris les secrets com­mer­ci­aux, est trai­tée con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té énon­cées à l’ar­tic­le 78.

(85) Les systè­mes d’IA à usa­ge géné­ral peu­vent être uti­li­sés com­me des systè­mes d’IA à haut ris­que en tant que tels ou com­me com­po­sants d’aut­res systè­mes d’IA à haut ris­que. Par con­sé­quent, en rai­son de leur natu­re par­ti­cu­liè­re et afin d’assurer un par­ta­ge équi­ta­ble des responsa­bi­li­tés tout au long de la chaî­ne de valeur de l’IA, les four­nis­seurs de ces systè­mes dev­rai­ent, indé­pen­dam­ment du fait qu’ils pui­s­sent être uti­li­sés en tant que systè­mes d’IA à haut ris­que en tant que tels par d’aut­res four­nis­seurs ou en tant que com­po­sants de systè­mes d’IA à haut ris­que et sauf dis­po­si­ti­on con­trai­re dans le pré­sent règle­ment, coopé­rer étroi­te­ment avec les four­nis­seurs des systè­mes d’IA à haut ris­que con­cer­nés afin d’assurer leur con­for­mi­té avec les obli­ga­ti­ons per­ti­nen­tes pré­vues par le pré­sent règle­ment et avec les auto­ri­tés com­pé­ten­tes éta­b­lies en ver­tu du pré­sent règlement.

Artic­le 54 Repré­sen­tants auto­ri­sés des four­nis­seurs de modè­les d’IA à usa­ge général

1. Avant de mett­re un modè­le d’IA à usa­ge géné­ral sur le mar­ché de l’U­ni­on, les four­nis­seurs étab­lis dans des pays tiers doi­vent, par man­dat écrit, dési­gner un repré­sen­tant auto­ri­sé éta­b­li dans l’Union.

2. Le four­nis­seur doit per­mett­re à son repré­sen­tant auto­ri­sé d’ac­com­plir les tâches spé­ci­fi­ées dans le man­dat reçu du fournisseur.

3. Le repré­sen­tant auto­ri­sé doit exé­cu­ter les tâches spé­ci­fi­ées dans le man­dat reçu du pre­sta­tai­re. Sur deman­de, il four­nit une copie du man­dat à l’Of­fice AI dans l’u­ne des lan­gues offi­ci­el­les des insti­tu­ti­ons de l’U­ni­on. Aux fins du pré­sent règle­ment, le man­dat doit habi­li­ter le repré­sen­tant auto­ri­sé à effec­tuer les tâches suivantes :

(a) véri­fi­ent que la docu­men­ta­ti­on tech­ni­que spé­ci­fi­ée à l’an­ne­xe XI a été éta­b­lie et que tou­tes les obli­ga­ti­ons visées à l’ar­tic­le 53 et, le cas échéant, à l’ar­tic­le 55 ont été rem­plies par le fournisseur ;

(b) con­ser­vent une copie de la docu­men­ta­ti­on tech­ni­que spé­ci­fi­ée à l’an­ne­xe XI à la dis­po­si­ti­on de l’AI Office et des auto­ri­tés natio­na­les com­pé­ten­tes, pen­dant une péri­ode de 10 ans après que le modè­le d’AI à usa­ge géné­ral a été mis sur le mar­ché, ain­si que les coor­don­nées du four­nis­seur qui a dési­gné le repré­sen­tant agréé ;

(c) four­nir à l’AI Office, sur deman­de moti­vée, tou­tes les infor­ma­ti­ons et la docu­men­ta­ti­on, y com­pris cel­les men­ti­onnées au point (b), néces­saires pour démon­trer le respect des obli­ga­ti­ons pré­vues par le pré­sent chapitre ;

(d) coopè­rent avec l’AI Office et les auto­ri­tés com­pé­ten­tes, sur deman­de moti­vée, pour tou­te action qu’ils entre­pren­nent en rela­ti­on avec le modè­le d’IA à usa­ge géné­ral, y com­pris lorsque le modè­le est inté­g­ré dans des systè­mes d’IA mis sur le mar­ché ou mis en ser­vice dans l’Union.

4. Le man­dat doit per­mett­re au repré­sen­tant auto­ri­sé d’êt­re cont­ac­té, en plus ou à la place du four­nis­seur, par l’AI Office ou les auto­ri­tés com­pé­ten­tes, pour tou­tes les que­sti­ons rela­ti­ves au respect du pré­sent règlement.

5. Le repré­sen­tant auto­ri­sé met fin au man­dat s’il con­sidè­re ou a des rai­sons de con­sidé­rer que le pre­sta­tai­re agit con­trai­re­ment aux obli­ga­ti­ons qui lui incom­bent en ver­tu du pré­sent règle­ment. Dans un tel cas, il doit éga­le­ment infor­mer immé­dia­te­ment l’AI Office de la rési­lia­ti­on du man­dat et des rai­sons qui la motivent.

6. L’ob­li­ga­ti­on énon­cée dans le pré­sent artic­le ne s’ap­pli­que pas aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral qui sont publiés sous une licence lib­re et ouver­te per­met­tant l’ac­cès, l’uti­li­sa­ti­on, la modi­fi­ca­ti­on et la dis­tri­bu­ti­on du modè­le, et dont les paramè­tres, y com­pris les poids, les infor­ma­ti­ons sur l’ar­chi­tec­tu­re du modè­le et les infor­ma­ti­ons sur l’uti­li­sa­ti­on du modè­le, sont mis à la dis­po­si­ti­on du public, à moins que les modè­les d’IA à usa­ge géné­ral ne pré­sen­tent des ris­ques systémiques.

Sec­tion 3 Obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique

Artic­le 55 Obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique

(114) Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques dev­rai­ent être sou­mis, en plus des obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral, à des obli­ga­ti­ons visa­nt à iden­ti­fier et à atté­nuer ces ris­ques et à assurer un niveau adé­quat de pro­tec­tion cont­re la cyber­sé­cu­ri­té, qu’ils soi­ent four­nis sous la for­me d’un modè­le auto­no­me ou inté­g­rés dans un système ou un pro­duit d’IA. Pour att­eind­re ces objec­tifs, ce règle­ment dev­rait exi­ger des four­nis­seurs qu’ils procè­dent aux éva­lua­tions néces­saires des modè­les, en par­ti­cu­lier avant leur pre­miè­re mise sur le mar­ché, y com­pris la réa­li­sa­ti­on et la docu­men­ta­ti­on de tests adver­ses des modè­les, y com­pris, le cas échéant, par des tests inter­nes ou exter­nes indé­pen­dants. En out­re, les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques dev­rai­ent éva­luer et atté­nuer en per­ma­nence les ris­ques sys­té­mi­ques, par exemp­le en met­tant en place des poli­ti­ques de gesti­on des ris­ques, tel­les que des pro­ce­s­sus de responsa­bi­li­té et de gou­ver­nan­ce, en met­tant en œuvre un sui­vi post-com­mer­cia­li­sa­ti­on, en prenant des mesu­res appro­priées tout au long du cycle de vie du modè­le et en coopé­rant avec les acteurs con­cer­nés tout au long de la chaî­ne de valeur de l’IA.

1. En plus des obli­ga­ti­ons énu­mé­rées aux artic­les 53 et 54, les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que doivent

(a) effec­tu­ent l’éva­lua­ti­on du modè­le con­for­mé­ment à des pro­to­co­les et outils stan­dar­di­sés reflé­tant l’é­tat de l’art, y com­pris la réa­li­sa­ti­on et la docu­men­ta­ti­on de tests adver­ses du modè­le en vue d’i­den­ti­fier et d’at­té­nuer les ris­ques systémiques ;

(b) éva­luer et atté­nuer les ris­ques sys­té­mi­ques poten­tiels au niveau de l’U­ni­on, y com­pris leurs sources, qui peu­vent pro­ve­nir du déve­lo­p­pe­ment, de la mise sur le mar­ché ou de l’uti­li­sa­ti­on de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique ;

(c) sui­v­re, docu­men­ter et rap­por­ter, sans délai, au Bureau de l’AI et, le cas échéant, aux auto­ri­tés natio­na­les com­pé­ten­tes, les infor­ma­ti­ons per­ti­nen­tes con­cer­nant les inci­dents gra­ves et les mesu­res cor­rec­ti­ves pos­si­bles pour y remédier ;

(d) assurer un niveau de pro­tec­tion adé­quat en matiè­re de cyber­sé­cu­ri­té pour le modè­le d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que et l’in­fras­truc­tu­re phy­si­que du modèle.

2. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que peu­vent se fon­der sur des codes de bon­nes pra­ti­ques au sens de l’ar­tic­le 56 pour démon­trer leur con­for­mi­té aux obli­ga­ti­ons énon­cées au para­gra­phe 1 du pré­sent artic­le, jus­qu’à ce qu’u­ne nor­me har­mo­ni­sée soit publiée. La con­for­mi­té aux nor­mes har­mo­ni­sées euro­pé­en­nes con­fè­re aux four­nis­seurs une pré­somp­ti­on de con­for­mi­té dans la mesu­re où ces nor­mes cou­vrent ces obli­ga­ti­ons. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que qui n’ad­hè­rent pas à un code de pra­tique approu­vé ou qui ne respec­tent pas une nor­me har­mo­ni­sée euro­pé­en­ne doi­vent démon­trer d’aut­res moy­ens adé­quats de con­for­mi­té en vue de leur éva­lua­ti­on par la Commission.

3. Tou­te infor­ma­ti­on ou docu­men­ta­ti­on obte­nue en ver­tu du pré­sent artic­le, y com­pris les secrets com­mer­ci­aux, est trai­tée con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té énon­cées à l’ar­tic­le 78.

(115) Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques dev­rai­ent éva­luer et atté­nuer les ris­ques sys­té­mi­ques poten­tiels. Si, mal­gré les efforts déployés pour iden­ti­fier et pré­ve­nir les ris­ques liés à un modè­le d’IA à usa­ge géné­ral sus­cep­ti­ble de pré­sen­ter des ris­ques sys­té­mi­ques, le déve­lo­p­pe­ment ou l’uti­li­sa­ti­on du modè­le pro­vo­que un inci­dent gra­ve, le four­nis­seur de modè­le d’IA à usa­ge géné­ral doit, sans délai, sui­v­re l’in­ci­dent et com­mu­ni­quer tou­te infor­ma­ti­on per­ti­nen­te et tou­te mesu­re cor­rec­ti­ve éven­tu­el­le à la Com­mis­si­on et aux auto­ri­tés natio­na­les compétentes.

En out­re, les four­nis­seurs dev­rai­ent assurer un niveau adé­quat de pro­tec­tion de cyber­sé­cu­ri­té pour le modè­le et son infras­truc­tu­re phy­si­que, le cas échéant, tout au long du cycle de vie du modè­le. La pro­tec­tion de cyber­sé­cu­ri­té liée aux ris­ques sys­té­mi­ques asso­ciés à l’uti­li­sa­ti­on mal­veil­lan­te ou aux atta­ques dev­rait tenir comp­te des fui­tes acci­den­tel­les de modè­les, des sor­ties non auto­ri­sées, du con­tour­ne­ment des mesu­res de sécu­ri­té et de la défen­se cont­re les cyberat­ta­ques, l’ac­cès non auto­ri­sé ou le vol de modè­les. That pro­tec­tion could be faci­li­ta­ted by secu­ring model weights, algo­rith­ms, ser­vers, and data sets, such as through ope­ra­tio­nal secu­ri­ty mea­su­res for infor­ma­ti­on secu­ri­ty, spe­ci­fic cyber­se­cu­ri­ty poli­ci­es, ade­qua­te tech­ni­cal and estab­lished solu­ti­ons, and cyber and phy­si­cal access con­trols, appro­pria­te to the rele­vant cir­cum­stances and the risks involved.

Sec­tion 4 Codes de pratique

Artic­le 56 Codes de pratique

1. L’AI Office encou­ra­ge et faci­li­te l’é­la­bo­ra­ti­on de codes de bon­nes pra­ti­ques au niveau de l’U­ni­on afin de con­tri­buer à la bon­ne appli­ca­ti­on du pré­sent règle­ment, en tenant comp­te des appro­ches internationales.

2. Le Bureau de l’AI et le Con­seil s’ef­for­cent de veil­ler à ce que les codes de pra­tique cou­vrent au moins les obli­ga­ti­ons pré­vues aux artic­les 53 et 55, y com­pris les que­sti­ons suivantes :

(a) les moy­ens de garan­tir que les infor­ma­ti­ons visées à l’ar­tic­le 53, para­gra­phe 1, points (a) et (b), sont tenues à jour comp­te tenu de l’é­vo­lu­ti­on du mar­ché et de la technologie ;

(b) le niveau de détail adé­quat pour le résu­mé du con­te­nu uti­li­sé pour la formation ;

(c) l’i­den­ti­fi­ca­ti­on du type et de la natu­re des ris­ques sys­té­mi­ques au niveau de l’U­ni­on, y com­pris de leurs sources, le cas échéant ;

(d) les mesu­res, pro­cé­du­res et moda­li­tés d’éva­lua­ti­on et de gesti­on des ris­ques sys­té­mi­ques au niveau de l’U­ni­on, y com­pris la docu­men­ta­ti­on y affé­ren­te, qui doi­vent être pro­por­ti­onnées aux ris­ques, tenir comp­te de leur sévé­ri­té et de leur pro­ba­bi­li­té et prend­re en con­sidé­ra­ti­on les défis spé­ci­fi­ques que pose la gesti­on de ces ris­ques, comp­te tenu des moda­li­tés selon les­quel­les ces ris­ques peu­vent appa­raît­re et se maté­ria­li­ser tout au long de la chaî­ne de valeur de l’assu­rance invalidité.

3. L’AI Office peut invi­ter tous les four­nis­seurs de modè­les d’IA à usa­ge géné­ral, ain­si que les auto­ri­tés natio­na­les com­pé­ten­tes, à par­ti­ci­per à l’é­la­bo­ra­ti­on de codes de bon­nes pra­ti­ques. Les orga­ni­sa­ti­ons de la socié­té civi­le, l’in­du­strie, le mon­de uni­ver­si­taire et d’aut­res acteurs con­cer­nés, tels que les four­nis­seurs en aval et les experts indé­pen­dants, peu­vent sou­te­nir le processus.

4. Le Bureau de l’AI et le Con­seil s’ef­for­cent de veil­ler à ce que les codes de pra­tique défi­nis­sent clai­re­ment leurs objec­tifs spé­ci­fi­ques et com­portent des enga­ge­ments ou des mesu­res, y com­pris des indi­ca­teurs clés de per­for­mance le cas échéant, pour assurer la réa­li­sa­ti­on de ces objec­tifs, et qu’ils tien­nent dûment comp­te des beso­ins et des inté­rêts de tou­tes les par­ties inté­res­sées, y com­pris les per­son­nes con­cer­nées, au niveau de l’Union.

Le Bureau de l’AI doit s’ef­forcer de veil­ler à ce que les par­ti­ci­pan­ts aux codes de pra­tique fas­sent régu­liè­re­ment rap­port au Bureau de l’AI sur la mise en œuvre des enga­ge­ments et des mesu­res pri­ses et sur leurs résul­tats, y com­pris, le cas échéant, par rap­port aux indi­ca­teurs de per­for­mance clés. Les indi­ca­teurs de per­for­mance clés et les enga­ge­ments en matiè­re de rap­ports doi­vent reflé­ter les dif­fé­ren­ces de tail­le et de capa­ci­té ent­re les dif­fér­ents participants.

6. L’AI Office et le Con­seil con­trô­lent et éva­lu­ent régu­liè­re­ment la réa­li­sa­ti­on des objec­tifs des codes de pra­tique par les par­ti­ci­pan­ts et leur con­tri­bu­ti­on à la bon­ne appli­ca­ti­on du pré­sent règle­ment. L’AI Office et le con­seil d’ad­mi­ni­stra­ti­on éva­lu­ent si les codes de pra­tique cou­vrent les obli­ga­ti­ons pré­vues aux artic­les 53 et 55, et ils con­trô­lent et éva­lu­ent régu­liè­re­ment la réa­li­sa­ti­on de leurs objec­tifs. Ils publi­ent leur éva­lua­ti­on de l’a­dé­qua­ti­on des codes de pratique.

La Com­mis­si­on peut, par voie d’ac­te d’exé­cu­ti­on, adop­ter un code de bon­ne pra­tique et lui don­ner une vali­di­té géné­ra­le dans l’U­ni­on. Cet acte d’exé­cu­ti­on est adop­té con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

7. L’AI Office peut invi­ter tous les four­nis­seurs de modè­les d’IA à usa­ge géné­ral à adhé­rer au code de pra­tique. Pour les four­nis­seurs de modè­les d’IA à usa­ge géné­ral ne pré­sen­tant pas de ris­ques sys­té­mi­ques, cet­te adhé­si­on peut être limi­tée aux obli­ga­ti­ons pré­vues à l’ar­tic­le 53, à moins qu’ils ne décla­rent expli­ci­te­ment leur inté­rêt à adhé­rer au code complet.

8. Le Bureau AI doit éga­le­ment, le cas échéant, encou­ra­ger et faci­li­ter la révi­si­on et l’ad­ap­t­ati­on des codes de pra­tique, en par­ti­cu­lier à la lumiè­re des nor­mes émer­gen­tes. L’AI Office doit con­tri­buer à l’éva­lua­ti­on des nor­mes disponibles.

9. Les codes de pra­tique doi­vent être prêts au plus tard le … [neuf mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. L’AI Office prend les mesu­res néces­saires, notam­ment en invi­tant les four­nis­seurs con­for­mé­ment au para­gra­phe 7.

Si, d’i­ci … [12 mois à comp­ter de la date d’en­trée en vigueur], un code de pra­tique ne peut être fina­li­sé ou si l’AI Office esti­me qu’il n’est pas suf­fi­sant à la suite de son éva­lua­ti­on en ver­tu du para­gra­phe 6 du pré­sent artic­le, la Com­mis­si­on peut pré­voir, au moy­en d’ac­tes d’exé­cu­ti­on, des règles com­mu­nes pour la mise en œuvre des obli­ga­ti­ons pré­vues aux artic­les 53 et 55, y com­pris les matiè­res énu­mé­rées au para­gra­phe 2 du pré­sent artic­le. Ces actes d’exé­cu­ti­on sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

(116) L’AI Office dev­rait encou­ra­ger et faci­li­ter l’é­la­bo­ra­ti­on, la révi­si­on et l’ad­ap­t­ati­on de codes de pra­tique, en tenant comp­te des appro­ches inter­na­tio­na­les. Tous les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pour­rai­ent être invi­tés à par­ti­ci­per. Afin de garan­tir que les codes de pra­tique reflè­tent l’é­tat de l’art et tien­nent dûment comp­te d’un ensem­ble diver­si­fié de per­spec­ti­ves, l’AI Office dev­rait col­la­bo­rer avec les auto­ri­tés natio­na­les com­pé­ten­tes et pour­rait, le cas échéant, con­sul­ter les orga­ni­sa­ti­ons de la socié­té civi­le et d’aut­res par­ties pren­an­tes et experts con­cer­nés, y com­pris le grou­pe sci­en­ti­fi­que, pour l’é­la­bo­ra­ti­on de ces codes. Les codes de pra­tique dev­rai­ent cou­vr­ir les obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge géné­ral et de modè­les d’IA à usa­ge géné­ral pré­sen­tant des ris­ques sys­té­mi­ques. En out­re, en ce qui con­cer­ne les ris­ques sys­té­mi­ques, les codes de pra­tique dev­rai­ent aider à éta­b­lir une taxo­no­mie des ris­ques du type et de la natu­re des ris­ques sys­té­mi­ques au niveau de l’U­ni­on, y com­pris leurs sources. Les codes de pra­tique dev­rai­ent éga­le­ment être axés sur l’éva­lua­ti­on spé­ci­fi­que des ris­ques et les mesu­res d’atténuation.

(117) Les codes de pra­tique dev­rai­ent con­sti­tuer un outil cen­tral pour la con­for­mi­té cor­rec­te avec les obli­ga­ti­ons pré­vues par le pré­sent règle­ment pour les four­nis­seurs de modè­les d’IA à usa­ge géné­ral. Les four­nis­seurs dev­rai­ent pou­voir se fon­der sur des codes de pra­tique pour démon­trer leur con­for­mi­té aux obli­ga­ti­ons. Par voie d’ac­tes d’exé­cu­ti­on, la Com­mis­si­on peut déci­der d’ap­prou­ver un code de pra­tique et de lui con­fé­rer une vali­di­té géné­ra­le dans l’U­ni­on ou, à défaut, de pré­voir des règles com­mu­nes pour la mise en œuvre des obli­ga­ti­ons per­ti­nen­tes si, au moment où le pré­sent règle­ment devi­ent appli­ca­ble, un code de pra­tique ne peut être fina­li­sé ou n’est pas jugé adé­quat par l’AI Office. Dès lors qu’u­ne nor­me har­mo­ni­sée est publiée et jugée apte à cou­vr­ir les obli­ga­ti­ons per­ti­nen­tes par l’AI Office, la con­for­mi­té à une nor­me har­mo­ni­sée euro­pé­en­ne dev­rait con­fé­rer aux four­nis­seurs la pré­somp­ti­on de con­for­mi­té. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rai­ent en out­re être en mesu­re de démon­trer leur con­for­mi­té par d’aut­res moy­ens appro­priés, si des codes de pra­tique ou des nor­mes har­mo­ni­sées ne sont pas dis­po­ni­bles ou s’ils choi­sis­sent de ne pas s’y référer.

Cha­pit­re VI Mesu­res de sou­ti­en à l’innovation

Artic­le 57 Sand­bo­xes régle­men­tai­res AI

1. Les États mem­bres veil­lent à ce que leurs auto­ri­tés com­pé­ten­tes éta­blis­sent au moins une boîte à outils régle­men­tai­re en matiè­re d’assu­rance inva­li­di­té au niveau natio­nal, qui doit être opé­ra­ti­on­nel­le d’i­ci … [24 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Cet­te boîte à outils peut éga­le­ment être éta­b­lie con­join­te­ment avec les auto­ri­tés com­pé­ten­tes d’aut­res États mem­bres. La Com­mis­si­on peut four­nir une assi­stance tech­ni­que, des con­seils et des outils pour la mise en place et le fonc­tion­ne­ment de sand­bo­xes régle­men­tai­res en matiè­re d’in­tel­li­gence artificielle.

L’ob­li­ga­ti­on visée au pre­mier ali­néa peut éga­le­ment être satis­fai­te par la par­ti­ci­pa­ti­on à un can­ton­nement exi­stant, dans la mesu­re où cet­te par­ti­ci­pa­ti­on assu­re un niveau de cou­ver­tu­re natio­na­le équi­va­lent pour les États mem­bres participants.

(138) L’IA est une famil­le de tech­no­lo­gies en évo­lu­ti­on rapi­de qui néces­si­te une sur­veil­lan­ce régle­men­tai­re et un espace sûr et con­trôlé pour l’expé­ri­men­ta­ti­on, tout en garan­tis­sant une inno­va­ti­on responsable et l’in­té­gra­ti­on de garan­ties appro­priées et de mesu­res d’at­té­nua­ti­on des ris­ques. Afin d’assurer un cad­re juri­di­que qui favo­ri­se l’in­no­va­ti­on, soit à l’é­preuve du temps et rési­ste aux per­tur­ba­ti­ons, les États mem­bres dev­rai­ent veil­ler à ce que leurs auto­ri­tés natio­na­les com­pé­ten­tes éta­blis­sent au moins un “bac à sable” régle­men­tai­re en matiè­re d’IA au niveau natio­nal pour faci­li­ter le déve­lo­p­pe­ment et le test de systè­mes d’IA inno­vants sous un con­trô­le régle­men­tai­re strict avant que ces systè­mes ne soi­ent mis sur le mar­ché ou autre­ment mis en ser­vice. Les États mem­bres pour­rai­ent éga­le­ment s’ac­quit­ter de cet­te obli­ga­ti­on en par­ti­ci­pant à des “sand­bo­xes” régle­men­tai­res exi­stan­tes ou en éta­blis­sant con­join­te­ment une “sand­box” avec une ou plu­sieurs auto­ri­tés com­pé­ten­tes des États mem­bres, dans la mesu­re où cet­te par­ti­ci­pa­ti­on off­re un niveau de cou­ver­tu­re natio­na­le équi­va­lent pour les États mem­bres par­ti­ci­pan­ts. Les boîtes à outils régle­men­tai­res en matiè­re d’IA pour­rai­ent être éta­b­lies sous for­me phy­si­que, numé­ri­que ou hybri­de et pour­rai­ent accu­eil­lir des pro­duits phy­si­ques ou numé­ri­ques. Les auto­ri­tés char­gées de la mise en place dev­rai­ent éga­le­ment veil­ler à ce que les “sand­bo­xes” régle­men­tai­res en matiè­re d’IA dis­po­sent des res­sour­ces adé­qua­tes pour leur fonc­tion­ne­ment, y com­pris des res­sour­ces finan­ciè­res et humaines.

2. Des “sand­bo­xes” régle­men­tai­res AI sup­p­lé­men­tai­res au niveau régio­nal ou local, ou étab­lis con­join­te­ment avec les auto­ri­tés com­pé­ten­tes d’aut­res États mem­bres, peu­vent éga­le­ment être mis en place.

3. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées peut éga­le­ment éta­b­lir une boîte à outils régle­men­tai­re AI pour les insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on et peut exer­cer les rôles et les fonc­tions des auto­ri­tés natio­na­les com­pé­ten­tes con­for­mé­ment au pré­sent chapitre.

4. Les États mem­bres veil­lent à ce que les auto­ri­tés com­pé­ten­tes men­ti­onnées aux para­gra­phes 1 et 2 all­o­uent des res­sour­ces suf­fi­san­tes pour se con­for­mer au pré­sent artic­le de maniè­re effec­ti­ve et en temps vou­lu. Le cas échéant, les auto­ri­tés natio­na­les com­pé­ten­tes coopè­rent avec d’aut­res auto­ri­tés com­pé­ten­tes et peu­vent per­mett­re la par­ti­ci­pa­ti­on d’aut­res acteurs de l’é­co­sy­stème AI. Le pré­sent artic­le n’af­fec­te pas les aut­res sand­bo­xes régle­men­tai­res éta­b­lies en ver­tu du droit de l’U­ni­on ou du droit natio­nal. Les États mem­bres veil­lent à ce qu’il y ait un niveau de coopé­ra­ti­on appro­prié ent­re les auto­ri­tés char­gées de la sur­veil­lan­ce de ces aut­res “sand­bo­xes” et les auto­ri­tés natio­na­les compétentes.

5. Les “sand­bo­xes” régle­men­tai­res en matiè­re d’IA éta­b­lies en ver­tu du para­gra­phe 1 four­nis­sent un envi­ron­ne­ment con­trôlé qui favo­ri­se l’in­no­va­ti­on et faci­li­te le déve­lo­p­pe­ment, la for­ma­ti­on, les essais et la vali­da­ti­on de systè­mes d’IA inno­vants pen­dant une péri­ode limi­tée avant leur mise sur le mar­ché ou leur mise en ser­vice, con­for­mé­ment à un plan de sand­boxing spé­ci­fi­que con­ve­nu ent­re les four­nis­seurs ou les four­nis­seurs poten­tiels et l’au­to­ri­té com­pé­ten­te. Ces “sand­bo­xes” peu­vent inclu­re des tests dans des con­di­ti­ons réel­les, super­vi­sés par ces derniers.

6. Les auto­ri­tés com­pé­ten­tes four­nis­sent, le cas échéant, des con­seils, une super­vi­si­on et une assi­stance dans le cad­re du cad­re régle­men­tai­re de l’in­tel­li­gence arti­fi­ci­el­le, en vue d’i­den­ti­fier les ris­ques, en par­ti­cu­lier pour les droits fon­da­men­taux, la san­té et la sécu­ri­té, les tests, les mesu­res de miti­ga­ti­on et leur effi­ca­ci­té par rap­port aux obli­ga­ti­ons et exi­gen­ces du pré­sent règle­ment et, le cas échéant, des aut­res légis­la­ti­ons natio­na­les et de l’U­ni­on super­vi­sées dans le cad­re du cad­re réglementaire.

7. Les auto­ri­tés com­pé­ten­tes doi­vent four­nir aux four­nis­seurs et aux four­nis­seurs poten­tiels par­ti­ci­pant à l’AI regu­la­to­ry sand­box des con­seils sur les atten­tes régle­men­tai­res et sur la maniè­re de se con­for­mer aux exi­gen­ces et aux obli­ga­ti­ons pré­vues par le pré­sent règlement.

la deman­de du four­nis­seur ou du four­nis­seur poten­tiel du système d’in­tel­li­gence arti­fi­ci­el­le, l’au­to­ri­té com­pé­ten­te doit four­nir une preuve écri­te des acti­vi­tés menées avec suc­cès dans le bac à sable. L’au­to­ri­té com­pé­ten­te doit éga­le­ment four­nir un rap­port de sor­tie détail­lant les acti­vi­tés menées dans le sand­box ain­si que les résul­tats et les acquis d’app­ren­tis­sa­ge cor­re­spond­ants. Les four­nis­seurs peu­vent uti­li­ser cet­te docu­men­ta­ti­on pour démon­trer leur con­for­mi­té au pré­sent règle­ment par le biais du pro­ce­s­sus d’éva­lua­ti­on de la con­for­mi­té ou d’ac­ti­vi­tés de sur­veil­lan­ce du mar­ché per­ti­nen­tes. À cet égard, les rap­ports de sor­tie et la preuve écri­te four­nie par l’au­to­ri­té natio­na­le com­pé­ten­te doi­vent être pris en comp­te de maniè­re posi­ti­ve par les auto­ri­tés de sur­veil­lan­ce du mar­ché et les orga­nis­mes noti­fi­és, dans le but d’ac­cé­lé­rer dans une mesu­re rai­sonnable les pro­cé­du­res d’éva­lua­ti­on de la conformité.

8. Sous réser­ve des dis­po­si­ti­ons de l’ar­tic­le 78 rela­ti­ves à la con­fi­den­tia­li­té et avec l’ac­cord du four­nis­seur ou du can­di­dat four­nis­seur, la Com­mis­si­on et le con­seil d’ad­mi­ni­stra­ti­on sont auto­ri­sés à accé­der aux rap­ports de sor­tie et en tien­nent comp­te, le cas échéant, dans l’e­xer­ci­ce de leurs fonc­tions au tit­re du pré­sent règle­ment. Si le four­nis­seur ou le pro­s­pect et l’au­to­ri­té natio­na­le com­pé­ten­te en con­vi­en­nent expli­ci­te­ment, le rap­port de sor­tie peut être mis à la dis­po­si­ti­on du public par l’in­ter­mé­di­ai­re de la pla­te­for­me d’in­for­ma­ti­on uni­que visée au pré­sent article.

9. La mise en place de sand­bo­xes régle­men­tai­res en matiè­re d’IA doit viser à con­tri­buer aux objec­tifs suivants :

(a) d’a­mé­lio­rer la sécu­ri­té juri­di­que afin d’assurer la con­for­mi­té régle­men­tai­re avec le pré­sent règle­ment ou, le cas échéant, avec les aut­res légis­la­ti­ons natio­na­les et de l’U­ni­on applicables ;

(b) sou­te­nir le par­ta­ge des meil­leu­res pra­ti­ques par le biais d’u­ne coopé­ra­ti­on avec les auto­ri­tés impli­quées dans la boîte à outils régle­men­tai­re de l’IA ;

(c) pro­mou­voir l’in­no­va­ti­on et la com­pé­ti­ti­vi­té et faci­li­ter le déve­lo­p­pe­ment d’un éco­sy­stème AI ;

(d) con­tri­buant à l’app­ren­tis­sa­ge régle­men­tai­re fon­dé sur des don­nées probantes ;

(e) faci­li­ter et accé­lé­rer l’ac­cès au mar­ché de l’U­ni­on pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier lorsqu’ils sont four­nis par des PME, y com­pris des start-ups.

10. Les auto­ri­tés natio­na­les com­pé­ten­tes veil­lent à ce que, dans la mesu­re où les systè­mes d’in­tel­li­gence arti­fi­ci­el­le inno­vants impli­quent le trai­te­ment de don­nées à carac­tère per­son­nel ou relè­vent d’u­ne aut­re maniè­re du con­trô­le d’aut­res auto­ri­tés natio­na­les ou d’au­to­ri­tés com­pé­ten­tes four­nis­sant ou faci­li­tant l’ac­cès aux don­nées, les auto­ri­tés natio­na­les char­gées de la pro­tec­tion des don­nées et ces aut­res auto­ri­tés natio­na­les ou com­pé­ten­tes soi­ent asso­ciées au fonc­tion­ne­ment de la boîte noi­re régle­men­tai­re de l’in­tel­li­gence arti­fi­ci­el­le et par­ti­ci­pent à la super­vi­si­on de ces aspects dans la mesu­re de leurs tâches et com­pé­ten­ces respectives.

11. Les sand­bo­xes régle­men­tai­res en matiè­re d’IA ne doi­vent pas affec­ter les pou­voirs de sur­veil­lan­ce ou de cor­rec­tion des auto­ri­tés com­pé­ten­tes qui super­vi­sent les sand­bo­xes, y com­pris au niveau régio­nal ou local. Tout ris­que signi­fi­ca­tif pour la san­té, la sécu­ri­té et les droits fon­da­men­taux iden­ti­fié lors du déve­lo­p­pe­ment et des essais de ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le doit fai­re l’ob­jet d’u­ne atté­nua­ti­on appropriée.

Les auto­ri­tés natio­na­les com­pé­ten­tes ont le pou­voir de sus­pend­re tem­po­rai­re­ment ou défi­ni­ti­ve­ment le pro­ce­s­sus de test ou la par­ti­ci­pa­ti­on à la boîte à outils si aucu­ne atté­nua­ti­on effi­cace n’est pos­si­ble, et elles infor­ment l’AI Office de cet­te décis­i­on. Les auto­ri­tés natio­na­les com­pé­ten­tes exer­cent leurs pou­voirs de sur­veil­lan­ce dans les limi­tes de la légis­la­ti­on appli­ca­ble, en uti­li­sant leurs pou­voirs dis­cré­ti­on­n­aires lors de la mise en œuvre des dis­po­si­ti­ons léga­les rela­ti­ves à un pro­jet de boîte à outils régle­men­tai­re spé­ci­fi­que en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, dans le but de sou­te­nir l’in­no­va­ti­on en matiè­re d’in­tel­li­gence arti­fi­ci­el­le dans l’Union.

12. Les four­nis­seurs et les four­nis­seurs poten­tiels par­ti­ci­pant au can­ton­nement régle­men­tai­re de l’IA restent respons­ables, con­for­mé­ment au droit de l’U­ni­on et au droit natio­nal appli­ca­ble en matiè­re de responsa­bi­li­té, de tout dom­mage causé à des tiers à la suite de l’expé­ri­men­ta­ti­on menée dans le can­ton­nement. Tou­te­fois, pour autant que les can­di­dats obser­vent le plan spé­ci­fi­que et les moda­li­tés et con­di­ti­ons de leur par­ti­ci­pa­ti­on et sui­vent de bon­ne foi les con­seils don­nés par l’au­to­ri­té natio­na­le com­pé­ten­te, aucu­ne sanc­tion admi­ni­stra­ti­ve ne sera impo­sée par les auto­ri­tés en cas de vio­la­ti­on du pré­sent règle­ment. Lorsque d’aut­res auto­ri­tés com­pé­ten­tes respons­ables d’aut­res légis­la­ti­ons de l’U­ni­on et natio­na­les ont par­ti­ci­pé acti­ve­ment à la super­vi­si­on du système d’assu­rance-inva­li­di­té dans le cad­re du can­ton­nement et ont four­ni des con­seils sur la con­for­mi­té, aucu­ne sanc­tion admi­ni­stra­ti­ve n’est impo­sée au regard de ces législations.

Les boîtes à outils régle­men­tai­res de l’AI doi­vent être con­çues et mises en œuvre de maniè­re à faci­li­ter, le cas échéant, la coopé­ra­ti­on trans­fron­ta­liè­re ent­re les auto­ri­tés natio­na­les compétentes.

14. Les auto­ri­tés natio­na­les com­pé­ten­tes doi­vent coor­don­ner leurs acti­vi­tés et coopé­rer dans le cad­re du Conseil.

15. Les auto­ri­tés natio­na­les com­pé­ten­tes infor­ment l’AI Office et le Con­seil de l’é­ta­blis­se­ment d’u­ne boîte à outils et peu­vent leur deman­der assi­stance et con­seils. L’AI Office met à la dis­po­si­ti­on du public une liste des “sand­bo­xes” pré­vus et exi­stants et la tient à jour afin d’en­cou­ra­ger une plus gran­de inter­ac­tion dans les “sand­bo­xes” régle­men­tai­res en matiè­re d’IA et la coopé­ra­ti­on transfrontalière.

16. Les auto­ri­tés natio­na­les com­pé­ten­tes sou­met­tent des rap­ports annu­els au Bureau de l’AI et au Con­seil d’ad­mi­ni­stra­ti­on, à par­tir d’un an après la mise en place de la boîte à outils régle­men­tai­re de l’AI et chaque année par la suite jus­qu’à la fin de cel­le-ci, ain­si qu’un rap­port final. Ces rap­ports four­nis­sent des infor­ma­ti­ons sur l’é­tat d’a­vance­ment et les résul­tats de la mise en œuvre de ces can­ton­nements, y com­pris les meil­leu­res pra­ti­ques, les inci­dents, les ens­eig­ne­ments tirés et les recom­man­da­ti­ons con­cer­nant leur mise en place et, le cas échéant, sur l’ap­pli­ca­ti­on et la révi­si­on éven­tu­el­le du pré­sent règle­ment, y com­pris ses actes délé­gués et d’exé­cu­ti­on, et sur l’ap­pli­ca­ti­on d’aut­res légis­la­ti­ons de l’U­ni­on super­vi­sées par les auto­ri­tés com­pé­ten­tes au sein du can­ton­nement. Les auto­ri­tés natio­na­les com­pé­ten­tes met­tent ces rap­ports annu­els ou des extraits de ceux-ci à la dis­po­si­ti­on du public, en ligne. La Com­mis­si­on tient comp­te, le cas échéant, des rap­ports annu­els dans l’e­xer­ci­ce de ses fonc­tions au tit­re du pré­sent règlement.

17. La Com­mis­si­on doit déve­lo­p­per une inter­face uni­que et dédiée con­tenant tou­tes les infor­ma­ti­ons per­ti­nen­tes rela­ti­ves aux “sand­bo­xes” régle­men­tai­res en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, afin de per­mett­re aux par­ties pren­an­tes d’in­ter­agir avec les “sand­bo­xes” régle­men­tai­res en matiè­re d’in­tel­li­gence arti­fi­ci­el­le et de sou­le­ver des que­sti­ons auprès des auto­ri­tés com­pé­ten­tes, et de recher­cher des con­seils non con­traignants sur la con­for­mi­té des pro­duits, ser­vices et modè­les d’entre­pri­se inno­vants inté­grant des tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le, con­for­mé­ment à l’ar­tic­le 62(1), point (c). La Com­mis­si­on assu­re une coor­di­na­ti­on proac­ti­ve avec les auto­ri­tés natio­na­les com­pé­ten­tes, le cas échéant.

(139) Les objec­tifs des sand­bo­xes régle­men­tai­res IA dev­rai­ent être de sti­mu­ler l’in­no­va­ti­on IA en éta­blis­sant un envi­ron­ne­ment d’expé­ri­men­ta­ti­on et de test con­trôlé dans la pha­se de déve­lo­p­pe­ment et de pré-com­mer­cia­li­sa­ti­on en vue d’assurer la con­for­mi­té des systè­mes IA inno­vants avec le pré­sent règle­ment et les aut­res légis­la­ti­ons natio­na­les et de l’U­ni­on per­ti­nen­tes. En out­re, les “sand­bo­xes” régle­men­tai­res en matiè­re d’IA dev­rai­ent viser à accroît­re la sécu­ri­té juri­di­que pour les inno­va­teurs ain­si que la sur­veil­lan­ce et la com­pré­hen­si­on par les auto­ri­tés com­pé­ten­tes des pos­si­bi­li­tés, des ris­ques émer­gen­ts et des inci­den­ces de l’uti­li­sa­ti­on de l’IA, à faci­li­ter l’app­ren­tis­sa­ge régle­men­tai­re pour les auto­ri­tés et les ent­re­pri­ses, y com­pris en vue d’ad­ap­t­ati­ons futures du cad­re juri­di­que, à sou­te­nir la coopé­ra­ti­on et le par­ta­ge des meil­leu­res pra­ti­ques avec les auto­ri­tés impli­quées dans le “sand­box” régle­men­tai­re en matiè­re d’IA, et à accé­lé­rer l’ac­cès aux mar­chés, y com­pris en sup­p­ri­mant les obs­ta­cles pour les PME, y com­pris les start-ups. Les “bacs à sable” régle­men­tai­res en matiè­re d’IA dev­rai­ent être lar­ge­ment dis­po­ni­bles dans tou­te l’U­ni­on, et une atten­ti­on par­ti­cu­liè­re dev­rait être accor­dée à leur acce­s­si­bi­li­té pour les PME, y com­pris les start-ups. La par­ti­ci­pa­ti­on à la boîte à outils régle­men­tai­re de l’IA dev­rait se con­cen­trer sur les que­sti­ons qui soulè­vent des incer­ti­tu­des juri­di­ques pour les four­nis­seurs et les four­nis­seurs poten­tiels afin d’in­no­ver, d’expé­ri­men­ter l’IA dans l’U­ni­on et de con­tri­buer à l’app­ren­tis­sa­ge régle­men­tai­re fon­dé sur des don­nées pro­ban­tes. La super­vi­si­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le cad­re de l’AI regu­la­to­ry sand­box dev­rait donc cou­vr­ir leur déve­lo­p­pe­ment, leur for­ma­ti­on, leurs tests et leur vali­da­ti­on avant que les systè­mes ne soi­ent mis sur le mar­ché ou en ser­vice, ain­si que la noti­on et l’oc­cur­rence de modi­fi­ca­ti­ons sub­stan­ti­el­les qui pour­rai­ent néces­si­ter une nou­vel­le pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té. Tout ris­que important iden­ti­fié au cours du déve­lo­p­pe­ment et des essais de ces systè­mes d’in­tel­li­gence arti­fi­ci­el­le doit fai­re l’ob­jet d’u­ne atté­nua­ti­on appro­priée et, à défaut, d’u­ne sus­pen­si­on du pro­ce­s­sus de déve­lo­p­pe­ment et d’essai.

Le cas échéant, les auto­ri­tés natio­na­les com­pé­ten­tes char­gées de l’é­ta­blis­se­ment de “sand­bo­xes” régle­men­tai­res pour l’IA dev­rai­ent coopé­rer avec d’aut­res auto­ri­tés com­pé­ten­tes, y com­pris cel­les char­gées de la pro­tec­tion des droits fon­da­men­taux, et pour­rai­ent per­mett­re la par­ti­ci­pa­ti­on d’aut­res acteurs de l’é­co­sy­stème de l’IA, tels que des orga­nis­mes nati­on­aux ou euro­pé­ens de nor­ma­li­sa­ti­on, des orga­nis­mes noti­fi­és, des instal­la­ti­ons de test et d’expé­ri­men­ta­ti­on, des labo­ra­toires de recher­che et d’expé­ri­men­ta­ti­on, des pla­te­for­mes euro­pé­en­nes d’in­no­va­ti­on numé­ri­que et des orga­ni­sa­ti­ons per­ti­nen­tes de par­ties pren­an­tes et de la socié­té civi­le. Afin d’assurer une mise en œuvre uni­for­me dans tou­te l’U­ni­on et des éco­no­mies d’é­chel­le, il con­vi­ent d’é­ta­b­lir des règles com­mu­nes pour la mise en œuvre des sand­bo­xes régle­men­tai­res IA et un cad­re de coopé­ra­ti­on ent­re les auto­ri­tés com­pé­ten­tes impli­quées dans la super­vi­si­on des sand­bo­xes. Les sand­bo­xes régle­men­tai­res pour l’IA éta­b­lies en ver­tu du pré­sent règle­ment ne dev­rai­ent pas por­ter pré­ju­di­ce à d’aut­res légis­la­ti­ons per­met­tant l’é­ta­blis­se­ment d’aut­res sand­bo­xes visa­nt à assurer la con­for­mi­té avec des légis­la­ti­ons aut­res que le pré­sent règle­ment. Le cas échéant, les auto­ri­tés com­pé­ten­tes char­gées de ces aut­res “sand­bo­xes” régle­men­tai­res dev­rai­ent exami­ner les avan­ta­ges de l’uti­li­sa­ti­on de ces “sand­bo­xes” éga­le­ment dans le but d’assurer la con­for­mi­té des systè­mes d’IA au pré­sent règle­ment. En cas d’ac­cord ent­re les auto­ri­tés natio­na­les com­pé­ten­tes et les par­ti­ci­pan­ts à la boîte à outils régle­men­tai­re pour l’IA, les tests en con­di­ti­ons réel­les peu­vent éga­le­ment être effec­tués et super­vi­sés dans le cad­re de la boîte à outils régle­men­tai­re pour l’IA.

Artic­le 58 Arran­ge­ments détail­lés pour, et fonc­tion­ne­ment de, sand­bo­xes régle­men­tai­res AI

1. Afin d’é­vi­ter la frag­men­ta­ti­on dans l’U­ni­on, la Com­mis­si­on adop­te des actes d’exé­cu­ti­on pré­cisant les moda­li­tés détail­lées de créa­ti­on, d’é­la­bo­ra­ti­on, de mise en œuvre, de fonc­tion­ne­ment et de con­trô­le des “boîtes à outils” régle­men­tai­res en matiè­re d’in­tel­li­gence arti­fi­ci­el­le. Les actes d’exé­cu­ti­on doi­vent inclu­re des prin­cipes com­muns sur les que­sti­ons suivantes :

(a) eli­gi­bi­li­ty and sel­ec­tion cri­te­ria for par­ti­ci­pa­ti­on in the AI regu­la­to­ry sandbox ;

(b) les pro­cé­du­res d’ap­pli­ca­ti­on, de par­ti­ci­pa­ti­on, de sui­vi, de sor­tie et d’ar­rêt de la boîte à outils régle­men­tai­re de l’IA, y com­pris le plan de la boîte à outils et le rap­port de sortie ;

(c) les ter­mes et con­di­ti­ons appli­ca­bles aux participants.

Ces actes d’exé­cu­ti­on sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

2. Les actes d’exé­cu­ti­on visés au para­gra­phe 1 veil­lent à ce que

(a) que les boîtes à outils régle­men­tai­res en matiè­re d’IA soi­ent ouver­tes à tout four­nis­seur can­di­dat ou poten­tiel d’un système d’IA qui satis­fait aux critères d’ad­mis­si­bi­li­té et de sélec­tion, qui doi­vent être trans­par­ents et équi­ta­bles, et que les auto­ri­tés natio­na­les com­pé­ten­tes infor­ment les deman­deurs de leur décis­i­on dans un délai de trois mois à comp­ter de la demande ;

(b) que les “sand­bo­xes” régle­men­tai­res en matiè­re d’IA per­met­tent un accès lar­ge et égal et répon­dent à la deman­de de par­ti­ci­pa­ti­on ; les four­nis­seurs et les four­nis­seurs poten­tiels peu­vent éga­le­ment sou­mett­re des appli­ca­ti­ons en par­ten­ari­at avec des déployeurs et d’aut­res tiers concernés ;

(c) que les dis­po­si­ti­ons détail­lées rela­ti­ves aux “sand­bo­xes” régle­men­tai­res en matiè­re d’IA et les con­di­ti­ons qui s’y rap­portent offrent, dans la mesu­re du pos­si­ble, une cer­taine sou­ples­se aux auto­ri­tés natio­na­les com­pé­ten­tes pour l’é­ta­blis­se­ment et le fonc­tion­ne­ment de leurs “sand­bo­xes” régle­men­tai­res en matiè­re d’IA ;

(d) que l’ac­cès aux boîtes à outils régle­men­tai­res en matiè­re d’IA soit gra­tuit pour les PME, y com­pris les jeu­nes pous­ses, sans pré­ju­di­ce des coûts excep­ti­on­nels que les auto­ri­tés com­pé­ten­tes natio­na­les peu­vent recou­vrer de maniè­re juste et proportionnée ;

(e) qu’ils faci­li­tent la mise en con­for­mi­té des four­nis­seurs et des four­nis­seurs poten­tiels avec les obli­ga­ti­ons d’éva­lua­ti­on de la con­for­mi­té pré­vues par le pré­sent règle­ment et l’ap­pli­ca­ti­on volon­tai­re des codes de con­duite visés à l’ar­tic­le 95, par le biais des résul­tats d’app­ren­tis­sa­ge des bancs d’es­sai régle­men­tai­res en matiè­re d’in­tel­li­gence artificielle ;

(f) que les “boîtes à outils” régle­men­tai­res en matiè­re d’IA faci­li­tent la par­ti­ci­pa­ti­on d’aut­res acteurs per­tin­ents de l’é­co­sy­stème de l’IA, tels que les orga­nis­mes noti­fi­és et les orga­nis­mes de nor­ma­li­sa­ti­on, les PME, y com­pris les jeu­nes pous­ses, les ent­re­pri­ses, les inno­va­teurs, les instal­la­ti­ons de test et d’expé­ri­men­ta­ti­on, les labo­ra­toires de recher­che et d’expé­ri­men­ta­ti­on et les cen­tres euro­pé­ens d’in­no­va­ti­on numé­ri­que, les cen­tres d’ex­cel­lence, les cher­cheurs indi­vi­du­els, afin de per­mett­re et de faci­li­ter la coopé­ra­ti­on avec les sec­teurs public et privé ;

(142) Afin de garan­tir que l’IA débou­che sur des résul­tats socia­le­ment et éco­lo­gi­quement béné­fi­ques, les États mem­bres sont encou­ra­gés à sou­te­nir et à pro­mou­voir la recher­che et le déve­lo­p­pe­ment de solu­ti­ons d’IA en faveur de résul­tats socia­le­ment et éco­lo­gi­quement béné­fi­ques, tels que des solu­ti­ons basées sur l’IA per­met­tant d’a­mé­lio­rer l’ac­ce­s­si­bi­li­té pour les per­son­nes han­di­ca­pées, de lut­ter cont­re les iné­ga­li­tés socio-éco­no­mi­ques ou de réa­li­ser des objec­tifs envi­ron­ne­men­taux, en all­o­uant des res­sour­ces suf­fi­san­tes, y com­pris un finance­ment public et com­mun­au­tai­re, et, le cas échéant et à con­di­ti­on que les critères d’ad­mis­si­bi­li­té et de sélec­tion soi­ent rem­p­lis, en con­sidé­rant en par­ti­cu­lier les pro­jets qui pour­suivent de tels objec­tifs. De tels pro­jets dev­rai­ent être fon­dés sur le prin­ci­pe de la coopé­ra­ti­on inter­di­sci­pli­naire ent­re les déve­lo­p­peurs d’IA, les experts en matiè­re d’i­né­ga­li­té et de non-dis­cri­mi­na­ti­on, d’ac­ce­s­si­bi­li­té, de droits des con­som­ma­teurs, de droits envi­ron­ne­men­taux et de droits numé­ri­ques, ain­si que les universitaires.

(g) que les pro­cé­du­res, pro­ce­s­sus et exi­gen­ces admi­ni­stra­ti­ves pour l’ap­pli­ca­ti­on, la sélec­tion, la par­ti­ci­pa­ti­on et la sor­tie du cad­re régle­men­tai­re de l’IA soi­ent simp­les, faci­les à com­prend­re et clai­re­ment com­mu­ni­qués afin de faci­li­ter la par­ti­ci­pa­ti­on des PME, y com­pris des start-ups, dont les capa­ci­tés juri­di­ques et admi­ni­stra­ti­ves sont limi­tées, et qu’ils soi­ent ratio­na­li­sés dans tou­te l’U­ni­on, afin d’é­vi­ter la frag­men­ta­ti­on, et que la par­ti­ci­pa­ti­on à un cad­re régle­men­tai­re de l’IA éta­b­li par un État membre ou par le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées soit recon­nue mutu­el­le­ment et uni­for­mé­ment et pro­dui­se les mêmes effets juri­di­ques dans tou­te l’Union ;

(143) Afin de pro­mou­voir et de pro­té­ger l’in­no­va­ti­on, il est important de prend­re en comp­te les inté­rêts des PME, y com­pris les start-ups, qui four­nis­sent ou déploi­ent des systè­mes IA. Pour ce fai­re, les États mem­bres dev­rai­ent déve­lo­p­per des initia­ti­ves ciblant ces opé­ra­teurs, notam­ment en matiè­re de sen­si­bi­li­sa­ti­on et de com­mu­ni­ca­ti­on d’in­for­ma­ti­ons. Les États mem­bres dev­rai­ent don­ner aux PME, y com­pris aux start-ups, qui ont un bureau enre­gi­stré ou une suc­cur­sa­le dans l’U­ni­on, un accès prio­ri­taire aux “boîtes à outils” régle­men­tai­res en matiè­re d’IA, à con­di­ti­on qu’el­les rem­plis­sent les con­di­ti­ons d’ad­mis­si­bi­li­té et les critères de sélec­tion, et sans empêcher d’aut­res four­nis­seurs et four­nis­seurs poten­tiels d’ac­cé­der aux “boîtes à outils”, pour autant que les mêmes con­di­ti­ons et critères soi­ent rem­p­lis. Les États mem­bres dev­rai­ent uti­li­ser les canaux exi­stants et, le cas échéant, en éta­b­lir de nou­veaux pour com­mu­ni­quer avec les PME, y com­pris les jeu­nes pous­ses, les ent­re­pri­ses en pha­se de démar­ra­ge, les aut­res inno­va­teurs et, le cas échéant, les auto­ri­tés publi­ques loca­les, afin de sou­te­nir les PME tout au long de leur par­cours de déve­lo­p­pe­ment en les gui­dant et en répond­ant à leurs que­sti­ons sur la mise en œuvre du pré­sent règle­ment. Le cas échéant, ces canaux dev­rai­ent coopé­rer afin de cré­er des syn­er­gies et d’assurer l’ho­mo­gé­néi­té de leurs con­seils aux PME, y com­pris aux jeu­nes pous­ses, et aux ent­re­pri­ses en pha­se de démar­ra­ge. En out­re, les États mem­bres dev­rai­ent faci­li­ter la par­ti­ci­pa­ti­on des PME et des aut­res par­ties pren­an­tes con­cer­nées aux pro­ce­s­sus d’é­la­bo­ra­ti­on des nor­mes. En out­re, les inté­rêts et les beso­ins spé­ci­fi­ques des four­nis­seurs qui sont des PME, y com­pris les start-ups, dev­rai­ent être pris en comp­te lorsque les orga­nis­mes noti­fi­és fixent les frais d’éva­lua­ti­on de la con­for­mi­té. La Com­mis­si­on dev­rait éva­luer régu­liè­re­ment les coûts de cer­ti­fi­ca­ti­on et de con­for­mi­té pour les PME, y com­pris les start-ups, par le biais de con­sul­ta­ti­ons trans­pa­ren­tes et dev­rait tra­vail­ler avec les États mem­bres pour rédui­re ces coûts.

Par exemp­le, les coûts de tra­duc­tion liés à la docu­men­ta­ti­on obli­ga­toire et à la com­mu­ni­ca­ti­on avec les auto­ri­tés peu­vent con­sti­tuer un coût important pour les four­nis­seurs et les aut­res opé­ra­teurs, en par­ti­cu­lier ceux à peti­te échel­le. Les États mem­bres dev­rai­ent éven­tu­el­le­ment veil­ler à ce que l’u­ne des lan­gues qu’ils déter­mi­nent et accept­ent pour la docu­men­ta­ti­on per­ti­nen­te des four­nis­seurs et pour la com­mu­ni­ca­ti­on avec les opé­ra­teurs soit cel­le qui est lar­ge­ment com­pri­se par le plus grand nombre pos­si­ble de déployeurs trans­fron­ta­liers. Afin de répond­re aux beso­ins spé­ci­fi­ques des PME, y com­pris des jeu­nes pous­ses, la Com­mis­si­on dev­rait four­nir des modè­les stan­dar­di­sés pour les domain­es cou­verts par le pré­sent règle­ment, à la deman­de du con­seil d’ad­mi­ni­stra­ti­on. En out­re, la Com­mis­si­on dev­rait com­plé­ter les efforts des États mem­bres en four­nis­sant une pla­te-for­me d’in­for­ma­ti­on uni­que con­tenant des infor­ma­ti­ons faci­les à uti­li­ser sur le pré­sent règle­ment pour tous les four­nis­seurs et les déployeurs, en orga­nisant des cam­pa­gnes de com­mu­ni­ca­ti­on appro­priées pour sen­si­bi­li­ser aux obli­ga­ti­ons décou­lant du pré­sent règle­ment, et en éva­lu­ant et en encou­ra­geant la con­ver­gence des meil­leu­res pra­ti­ques dans les pro­cé­du­res de mar­chés publics en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les moy­ennes ent­re­pri­ses qui ont récem­ment été qua­li­fi­ées de peti­tes ent­re­pri­ses au sens de l’an­ne­xe de la recom­man­da­ti­on 2003/361/CE de la Com­mis­si­on dev­rai­ent avoir accès à ces mesu­res de sou­ti­en, car ces nou­vel­les moy­ennes ent­re­pri­ses peu­vent par­fois ne pas dis­po­ser des res­sour­ces juri­di­ques et de la for­ma­ti­on néces­saires pour assurer une bon­ne com­pré­hen­si­on du pré­sent règle­ment et sa con­for­mi­té avec celui-ci.

(h) que la par­ti­ci­pa­ti­on à l’AI regu­la­to­ry sand­box est limi­tée à une péri­ode adap­tée à la com­ple­xi­té et à l’é­chel­le du pro­jet et qui peut être pro­lon­gée par l’au­to­ri­té natio­na­le compétente ;

(i) que les sand­bo­xes régle­men­tai­res IA faci­li­tent le déve­lo­p­pe­ment d’ou­tils et d’u­ne infras­truc­tu­re pour tester, éta­lon­ner, éva­luer et expli­quer les dimen­si­ons des systè­mes IA per­ti­nen­tes pour l’app­ren­tis­sa­ge régle­men­tai­re, tel­les que l’e­xac­ti­tu­de, la robust­es­se et la cyber­sé­cu­ri­té, ain­si que les mesu­res visa­nt à atté­nuer les ris­ques pour les droits fon­da­men­taux et la socié­té en général.

Les four­nis­seurs poten­tiels dans la “boîte à outils” régle­men­tai­re de l’IA, en par­ti­cu­lier les PME et les jeu­nes pous­ses, doi­vent être ori­en­tés, le cas échéant, vers des ser­vices de pré-déploie­ment tels que des con­seils sur la mise en œuvre du pré­sent règle­ment, vers d’aut­res ser­vices à valeur ajou­tée tels que l’ai­de pour les docu­ments de nor­ma­li­sa­ti­on et la cer­ti­fi­ca­ti­on, les instal­la­ti­ons de test et d’expé­ri­men­ta­ti­on, les cen­tres euro­pé­ens d’in­no­va­ti­on numé­ri­que et les cen­tres d’excellence.

4. Lorsque des auto­ri­tés natio­na­les envis­agent d’au­to­ri­ser des essais dans des con­di­ti­ons réel­les, super­vi­sés dans le cad­re d’un banc d’es­sai régle­men­tai­re pour l’IA, à éta­b­lir en ver­tu du pré­sent artic­le, elles défi­nis­sent spé­ci­fi­quement les ter­mes et con­di­ti­ons de ces essais et, en par­ti­cu­lier, les garan­ties appro­priées avec les par­ti­ci­pan­ts, dans le but de pro­té­ger les droits fon­da­men­taux, la san­té et la sécu­ri­té. Le cas échéant, ils coopè­rent avec d’aut­res auto­ri­tés natio­na­les com­pé­ten­tes en vue d’assurer la cohé­rence des pra­ti­ques dans l’en­sem­ble de l’Union.

Artic­le 59 Trai­te­ment ulté­ri­eur de don­nées à carac­tère per­son­nel pour le déve­lo­p­pe­ment de cer­ta­ins systè­mes d’in­tel­li­gence artificielle

dans l’in­té­rêt du public dans la boîte à outils régle­men­tai­re de l’IA

1. Dans la sand­box régle­men­tai­re AI, les don­nées à carac­tère per­son­nel coll­ec­tées léga­le­ment à d’aut­res fins peu­vent être trai­tées uni­quement dans le but de déve­lo­p­per, de for­mer et de tester cer­ta­ins systè­mes AI dans la sand­box si tou­tes les con­di­ti­ons sui­van­tes sont remplies :

(a) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent être déve­lo­p­pés pour la sau­vegar­de d’un inté­rêt public sub­stan­tiel par une auto­ri­té publi­que ou une aut­re per­son­ne phy­si­que ou mora­le et dans un ou plu­sieurs des domain­es suivants :

(i) la sécu­ri­té publi­que et la san­té publi­que, y com­pris la détec­tion des mala­dies, la pré­ven­ti­on des dia­gno­stics, le con­trô­le et le trai­te­ment, ain­si que l’a­mé­lio­ra­ti­on des systè­mes de soins de santé ;

(ii) un niveau éle­vé de pro­tec­tion et d’a­mé­lio­ra­ti­on de la qua­li­té de l’en­vi­ron­ne­ment, la pro­tec­tion de la bio­di­ver­si­té, la pro­tec­tion cont­re la pol­lu­ti­on, des mesu­res de tran­si­ti­on éco­lo­gi­que, des mesu­res d’at­té­nua­ti­on du chan­ge­ment cli­ma­tique et des mesu­res d’adaptation ;

(iii) dura­bi­li­té énergétique ;

(iv) la sécu­ri­té et la rési­li­ence des systè­mes de trans­port et de la mobi­li­té, des infras­truc­tures cri­ti­ques et des réseaux ;

(v) l’ef­fi­ca­ci­té et la qua­li­té de l’ad­mi­ni­stra­ti­on publi­que et des ser­vices publics ;

(b) les don­nées trai­tées sont néces­saires pour satis­fai­re à une ou plu­sieurs des exi­gen­ces men­ti­onnées au cha­pit­re III, sec­tion 2, lorsque ces exi­gen­ces ne peu­vent être satis­fai­tes effi­ca­ce­ment par le trai­te­ment de don­nées anony­mes, syn­thé­ti­ques ou aut­res don­nées non personnelles ;

(c) il exi­ste des méca­nis­mes de con­trô­le effi­caces per­met­tant d’i­den­ti­fier tout ris­que éle­vé pour les droits et liber­tés des per­son­nes con­cer­nées, tel que men­ti­onné à l’ar­tic­le 35 du règle­ment (UE) 2016/679 et à l’ar­tic­le 39 du règle­ment (UE) 2018/1725, qui pour­rait sur­ve­nir au cours de l’expé­ri­men­ta­ti­on sand­box, ain­si que des méca­nis­mes de répon­se per­met­tant d’at­té­nuer rapi­de­ment ces ris­ques et, le cas échéant, de mett­re fin au traitement ;

(d) tou­tes les don­nées à carac­tère per­son­nel à trai­ter dans le cad­re du sand­box se trou­vent dans un envi­ron­ne­ment de trai­te­ment des don­nées fonc­tion­nel­le­ment distinct, iso­lé et pro­té­gé, sous le con­trô­le du pro­s­pect, et seu­les les per­son­nes auto­ri­sées ont accès à ces données ;

(e) les four­nis­seurs ne peu­vent con­tin­uer à par­ta­ger les don­nées coll­ec­tées à l’o­ri­gi­ne que con­for­mé­ment à la légis­la­ti­on de l’U­ni­on sur la pro­tec­tion des don­nées ; tou­te don­née per­son­nel­le cré­ée dans le bac à sable ne peut être par­ta­gée en dehors du bac à sable ;

(f) tout trai­te­ment de don­nées à carac­tère per­son­nel dans le cad­re du can­ton­nement ne don­ne lieu à aucu­ne mesu­re ou décis­i­on affec­tant les per­son­nes con­cer­nées, ni n’af­fec­te l’ap­pli­ca­ti­on de leurs droits tels que défi­nis par la légis­la­ti­on de l’U­ni­on euro­pé­en­ne en matiè­re de pro­tec­tion des don­nées à carac­tère personnel ;

(g) tou­tes les don­nées à carac­tère per­son­nel trai­tées dans le cad­re du sand­box sont pro­té­gées par des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les appro­priées et sont sup­p­ri­mées dès que la par­ti­ci­pa­ti­on au sand­box a pris fin ou que les don­nées à carac­tère per­son­nel ont att­eint la fin de leur péri­ode de conservation ;

(h) les jour­naux du trai­te­ment des don­nées à carac­tère per­son­nel dans le cad­re du bac à sable sont con­ser­vés pen­dant la durée de la par­ti­ci­pa­ti­on au bac à sable, sauf dis­po­si­ti­on con­trai­re de l’U­ni­on ou de la légis­la­ti­on nationale ;

(i) une descrip­ti­on com­plè­te et détail­lée du pro­ce­s­sus et de la rai­son d’êt­re de la for­ma­ti­on, des essais et de la vali­da­ti­on du système d’i­den­ti­fi­ca­ti­on auto­ma­tique est con­ser­vée avec les résul­tats des essais dans le cad­re de la docu­men­ta­ti­on tech­ni­que men­ti­onnée à l’an­ne­xe IV ;

(j) a short sum­ma­ry of the AI pro­ject deve­lo­ped in the sand­box, its objec­ti­ves and expec­ted results is published on the web­site of the com­pe­tent aut­ho­ri­ties ; this obli­ga­ti­on shall not cover sen­si­ti­ve ope­ra­tio­nal data in rela­ti­on to the acti­vi­ties of law enforce­ment, bor­der con­trol, immi­gra­ti­on or asyl­um authorities.

(140) Le pré­sent règle­ment dev­rait four­nir la base juri­di­que per­met­tant aux four­nis­seurs et aux four­nis­seurs poten­tiels de la zone de régle­men­ta­ti­on de l’IA d’uti­li­ser les don­nées à carac­tère per­son­nel coll­ec­tées à d’aut­res fins pour le déve­lo­p­pe­ment de cer­ta­ins systè­mes d’IA dans l’in­té­rêt public au sein de la zone de régle­men­ta­ti­on de l’IA, uni­quement dans des con­di­ti­ons spé­ci­fi­ées, con­for­mé­ment à l’ar­tic­le 6, para­gra­phe 4, et à l’ar­tic­le 9, para­gra­phe 2, point (g), du règle­ment (UE) 2016/679, et aux artic­les 5, 6 et 10 du règle­ment (UE) 2018/1725, et sans pré­ju­di­ce de l’ar­tic­le 4, para­gra­phe 2, et de l’ar­tic­le 10 de la direc­ti­ve (UE) 2016/680. Tou­tes les aut­res obli­ga­ti­ons des con­trô­leurs de don­nées et les droits des per­son­nes con­cer­nées en ver­tu des Règle­ments (UE) 2016/679 et (UE) 2018/1725 et de la Direc­ti­ve (UE) 2016/680 restent appli­ca­bles. En par­ti­cu­lier, le pré­sent règle­ment ne dev­rait pas four­nir de base léga­le au sens de l’ar­tic­le 22(2), point (b), du règle­ment (UE) 2016/679 et de l’ar­tic­le 24(2), point (b), du règle­ment (UE) 2018/1725. Les four­nis­seurs et les four­nis­seurs poten­tiels dans la sand­box régle­men­tai­re IA dev­rai­ent assurer des garan­ties appro­priées et coopé­rer avec les auto­ri­tés com­pé­ten­tes, y com­pris en sui­vant leurs con­seils et en agis­sant promp­tement et de bon­ne foi pour atté­nuer de maniè­re adé­qua­te tout ris­que signi­fi­ca­tif iden­ti­fié pour la sécu­ri­té, la san­té et les droits fon­da­men­taux qui pour­rait sur­ve­nir au cours du déve­lo­p­pe­ment, des tests et de l’expé­ri­men­ta­ti­on dans cet­te sandbox.

2. Aux fins de la pré­ven­ti­on, de la recher­che, de la détec­tion ou de la pour­suite d’in­frac­tions péna­les ou de l’exé­cu­ti­on de sanc­tions péna­les, y com­pris la pré­ven­ti­on et la pro­tec­tion cont­re les men­aces à la sécu­ri­té publi­que, sous le con­trô­le et la responsa­bi­li­té des auto­ri­tés char­gées de l’ap­pli­ca­ti­on des lois, le trai­te­ment de don­nées à carac­tère per­son­nel dans des cachet­tes régle­men­tai­res pour l’IA est fon­dé sur une légis­la­ti­on spé­ci­fi­que de l’U­ni­on ou natio­na­le et est sou­mis aux mêmes con­di­ti­ons cumu­la­ti­ves que cel­les visées au para­gra­phe 1.

3. Le para­gra­phe 1 s’ap­pli­que sans pré­ju­di­ce du droit de l’U­ni­on ou du droit natio­nal qui exclut le trai­te­ment de don­nées à carac­tère per­son­nel à d’aut­res fins que cel­les expli­ci­te­ment men­ti­onnées dans ce droit, ain­si que du droit de l’U­ni­on ou du droit natio­nal éta­blis­sant la base du trai­te­ment des don­nées à carac­tère per­son­nel néces­saire aux fins du déve­lo­p­pe­ment, des tests ou de la for­ma­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le inno­vants ou de tou­te aut­re base juri­di­que, con­for­mé­ment au droit de l’U­ni­on sur la pro­tec­tion des don­nées à carac­tère personnel.

Artic­le 60 Test­ing of high-risk AI systems in real world con­di­ti­ons out­side AI regu­la­to­ry sandboxes

La Com­mis­si­on pré­cise, au moy­en d’ac­tes d’exé­cu­ti­on, les élé­ments détail­lés du plan d’es­sai en situa­ti­on réel­le. Ces actes d’exé­cu­ti­on sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

Le pré­sent para­gra­phe s’ap­pli­que sans pré­ju­di­ce de la légis­la­ti­on de l’U­ni­on ou de la légis­la­ti­on natio­na­le rela­ti­ve aux essais en con­di­ti­ons réel­les des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­cer­nant les pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I.

2. Les four­nis­seurs ou les four­nis­seurs poten­tiels peu­vent effec­tuer des tests sur les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que men­ti­onnés à l’an­ne­xe III dans des con­di­ti­ons réel­les à tout moment avant la mise sur le mar­ché ou la mise en ser­vice du système d’in­tel­li­gence arti­fi­ci­el­le, de leur pro­pre initia­ti­ve ou en par­ten­ari­at avec un ou plu­sieurs déployeurs ou four­nis­seurs potentiels.

3. L’expé­ri­men­ta­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que dans des con­di­ti­ons réel­les en ver­tu du pré­sent artic­le ne doit pas por­ter pré­ju­di­ce à tout examen éthi­que requis par le droit de l’U­ni­on ou le droit national.

4. Les four­nis­seurs ou les four­nis­seurs poten­tiels ne peu­vent effec­tuer le test dans des con­di­ti­ons réel­les que si tou­tes les con­di­ti­ons sui­van­tes sont remplies :

(a) le four­nis­seur ou le four­nis­seur poten­tiel a éla­bo­ré un plan de test en con­di­ti­ons réel­les et l’a sou­mis à l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre où le test en con­di­ti­ons réel­les doit être effectué ;

(b) l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre où le test en con­di­ti­ons réel­les doit être effec­tué a approu­vé le test en con­di­ti­ons réel­les et le plan de test en con­di­ti­ons réel­les ; si l’au­to­ri­té de sur­veil­lan­ce du mar­ché n’a pas four­ni de répon­se dans un délai de 30 jours, le test en con­di­ti­ons réel­les et le plan de test en con­di­ti­ons réel­les sont répu­tés avoir été approu­vés ; si le droit natio­nal ne pré­voit pas d’ap­pro­ba­ti­on taci­te, le test en con­di­ti­ons réel­les reste sou­mis à une autorisation ;

(c) le four­nis­seur ou le four­nis­seur poten­tiel, à l’ex­cep­ti­on des four­nis­seurs ou four­nis­seurs poten­tiels de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés aux points 1, 6 et 7 de l’an­ne­xe III dans les domain­es de l’ap­pli­ca­ti­on de la loi, de l’im­mi­gra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res, et des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés au point 2 de l’an­ne­xe III, a enre­gi­stré le test dans des con­di­ti­ons de mon­de réel con­for­mé­ment à l’ar­tic­le 71, para­gra­phe 4, avec un numé­ro d’i­den­ti­fi­ca­ti­on uni­que valable dans tou­te l’U­ni­on et avec les infor­ma­ti­ons spé­ci­fi­ées à l’an­ne­xe IX ; le four­nis­seur ou four­nis­seur poten­tiel de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés aux points

1, 6 et 7 de l’an­ne­xe III dans les domain­es de l’ap­pli­ca­ti­on de la loi, de la migra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res, a enre­gi­stré le test en con­di­ti­ons réel­les dans la sec­tion sécu­ri­sée non publi­que de la base de don­nées de l’UE con­for­mé­ment à l’ar­tic­le 49(4), point (d), avec un numé­ro d’i­den­ti­fi­ca­ti­on uni­que valable dans tou­te l’U­ni­on et avec les infor­ma­ti­ons spé­ci­fi­ées dans ce numé­ro ; le four­nis­seur ou le four­nis­seur poten­tiel de systè­mes d’IA à haut ris­que visé au point 2 de l’an­ne­xe III a enre­gi­stré le test en con­di­ti­ons réel­les con­for­mé­ment à l’ar­tic­le 49(5) ;

(d) le four­nis­seur ou le four­nis­seur poten­tiel effec­tu­ant le test en con­di­ti­ons réel­les est éta­b­li dans l’U­ni­on ou a dési­gné un repré­sen­tant légal éta­b­li dans l’Union ;

(e) les don­nées coll­ec­tées et trai­tées dans le but d’êt­re testées dans des con­di­ti­ons réel­les ne doi­vent être trans­fé­rées vers des pays tiers que si des garan­ties appro­priées et appli­ca­bles en ver­tu du droit de l’U­ni­on sont mises en œuvre ;

(f) le test en con­di­ti­ons réel­les ne dure pas plus long­temps que néces­saire pour att­eind­re ses objec­tifs et, en tout état de cau­se, pas plus de six mois, qui peu­vent être pro­lon­gés pour une péri­ode sup­p­lé­men­tai­re de six mois, sous réser­ve d’u­ne noti­fi­ca­ti­on pré­alable par le four­nis­seur ou le four­nis­seur poten­tiel à l’au­to­ri­té de sur­veil­lan­ce du mar­ché, accom­pa­gnée d’u­ne expli­ca­ti­on de la néces­si­té d’u­ne tel­le prolongation ;

(g) les sujets du test en con­di­ti­ons réel­les, qui sont des per­son­nes appar­tenant à des grou­pes vul­né­ra­bles en rai­son de leur âge ou de leur han­di­cap, soi­ent pro­té­gés de maniè­re adéquate ;

(h) lorsqu’un four­nis­seur ou un pre­sta­tai­re poten­tiel orga­ni­se le test en con­di­ti­ons réel­les en coopé­ra­ti­on avec un ou plu­sieurs déployeurs ou déployés poten­tiels, ces der­niers ont été infor­més de tous les aspects du test per­tin­ents pour leur décis­i­on de par­ti­ci­per et ont reçu les ins­truc­tions per­ti­nen­tes pour l’uti­li­sa­ti­on du système d’IA visé à l’ar­tic­le 13 ; le four­nis­seur ou le pre­sta­tai­re poten­tiel et le déployeur ou le déployé poten­tiel con­clu­ent un accord pré­cisant leurs rôles et responsa­bi­li­tés respec­tifs en vue d’assurer le respect des dis­po­si­ti­ons rela­ti­ves au test en con­di­ti­ons réel­les pré­vues par le pré­sent règle­ment et par tou­te aut­re légis­la­ti­on com­mun­au­tai­re ou natio­na­le applicable ;

(i) les sujets du test en con­di­ti­ons réel­les ont don­né leur con­sen­te­ment éclai­ré con­for­mé­ment à l’ar­tic­le 61 ou, en cas d’ap­pli­ca­ti­on de la loi, lorsque la recher­che du con­sen­te­ment éclai­ré empêcher­ait le système IA d’êt­re testé, le test lui-même et le résul­tat du test en con­di­ti­ons réel­les n’ont aucun effet néga­tif sur les sujets, et leurs don­nées à carac­tère per­son­nel sont sup­p­ri­mées après que le test a été effectué ;

(j) le test en con­di­ti­ons réel­les est effec­ti­ve­ment super­vi­sé par le four­nis­seur ou le four­nis­seur poten­tiel, ain­si que par des déployeurs ou des déployeurs poten­tiels par l’in­ter­mé­di­ai­re de per­son­nes dûment qua­li­fi­ées dans le domaine con­cer­né et dis­po­sant des capa­ci­tés, de la for­ma­ti­on et de l’au­to­ri­té néces­saires pour accom­plir leurs tâches ;

(k) les pré­dic­tions, recom­man­da­ti­ons ou décis­i­ons du système d’IA peu­vent être effi­ca­ce­ment inver­sées et désavouées.

5. Tou­te per­son­ne sou­mi­se à un test en con­di­ti­ons réel­les, ou son repré­sen­tant léga­le­ment dési­gné, le cas échéant, peut, sans pré­ju­di­ce et sans avoir à four­nir de justi­fi­ca­ti­on, se reti­rer du test à tout moment en révo­quant son con­sen­te­ment éclai­ré et peut deman­der la sup­pres­si­on immé­dia­te et per­ma­nen­te de ses don­nées à carac­tère per­son­nel. Le retrait du con­sen­te­ment éclai­ré n’af­fec­te pas les acti­vi­tés déjà réalisées.

6. Con­for­mé­ment à l’ar­tic­le 75, les États mem­bres con­fè­rent à leurs auto­ri­tés de sur­veil­lan­ce du mar­ché le pou­voir d’e­xi­ger des four­nis­seurs et des four­nis­seurs poten­tiels qu’ils four­nis­sent des infor­ma­ti­ons, de pro­cé­der à des inspec­tions à distance ou sur place non annon­cées, et d’ef­fec­tuer des con­trô­les sur le dérou­le­ment des essais en con­di­ti­ons réel­les et sur les systè­mes d’IA à haut ris­que cor­re­spond­ants. Les auto­ri­tés de sur­veil­lan­ce du mar­ché doi­vent uti­li­ser ces pou­voirs pour assurer le déve­lo­p­pe­ment sûr des tests dans les con­di­ti­ons du mon­de réel.

7. Tout inci­dent gra­ve iden­ti­fié au cours de l’es­sai en con­di­ti­ons réel­les doit être signa­lé à l’au­to­ri­té natio­na­le de sur­veil­lan­ce du mar­ché con­for­mé­ment à l’ar­tic­le 73. Le pre­sta­tai­re ou le can­di­dat pre­sta­tai­re doit adop­ter des mesu­res d’at­té­nua­ti­on immé­dia­tes ou, à défaut, sus­pend­re l’es­sai en con­di­ti­ons réel­les jus­qu’à ce qu’u­ne tel­le atté­nua­ti­on ait lieu ou, à défaut, y mett­re fin. Le four­nis­seur ou le four­nis­seur poten­tiel doit mett­re en place une pro­cé­du­re de rap­pel rapi­de du système d’i­den­ti­fi­ca­ti­on auto­ma­tique à la suite de l’ar­rêt des tests en con­di­ti­ons réelles.

8. Les four­nis­seurs ou les four­nis­seurs poten­tiels noti­fi­ent à l’au­to­ri­té natio­na­le de sur­veil­lan­ce du mar­ché de l’É­tat membre où le test en con­di­ti­ons réel­les doit être effec­tué la sus­pen­si­on ou l’in­ter­rup­ti­on du test en con­di­ti­ons réel­les et les résul­tats finaux.

9. Le four­nis­seur ou le four­nis­seur poten­tiel est responsable, con­for­mé­ment au droit de l’U­ni­on et au droit natio­nal appli­ca­ble en matiè­re de responsa­bi­li­té, de tout dom­mage causé au cours de leurs essais dans des con­di­ti­ons réelles.

(141) Afin d’ac­cé­lé­rer le pro­ce­s­sus de déve­lo­p­pe­ment et la mise sur le mar­ché des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que énu­mé­rés dans une anne­xe au pré­sent règle­ment, il est important que les four­nis­seurs ou les four­nis­seurs poten­tiels de ces systè­mes pui­s­sent éga­le­ment béné­fi­ci­er d’un régime spé­ci­fi­que pour tester ces systè­mes dans des con­di­ti­ons réel­les, sans par­ti­ci­per à un panel régle­men­tai­re d’in­tel­li­gence arti­fi­ci­el­le. Tou­te­fois, dans de tels cas, comp­te tenu des con­sé­quen­ces pos­si­bles de tels tests sur les indi­vi­dus, il con­vi­ent de s’assurer que des garan­ties et des con­di­ti­ons appro­priées et suf­fi­san­tes sont intro­dui­tes par le pré­sent règle­ment pour les four­nis­seurs ou les four­nis­seurs poten­tiels. De tel­les garan­ties dev­rai­ent inclu­re, ent­re aut­res, la deman­de de con­sen­te­ment éclai­ré des per­son­nes phy­si­ques pour par­ti­ci­per à des tests dans des con­di­ti­ons réel­les, à l’ex­cep­ti­on de l’ap­pli­ca­ti­on de la loi où la deman­de de con­sen­te­ment éclai­ré empêcher­ait le système IA d’êt­re testé. Le con­sen­te­ment des per­son­nes con­cer­nées à par­ti­ci­per à de tels tests en ver­tu du pré­sent règle­ment est distinct, et sans pré­ju­di­ce, du con­sen­te­ment des per­son­nes con­cer­nées au trai­te­ment de leurs don­nées à carac­tère per­son­nel en ver­tu de la légis­la­ti­on appli­ca­ble en matiè­re de pro­tec­tion des données.

It is also important to mini­mi­ze the risks and enable over­sight by com­pe­tent aut­ho­ri­ties and the­r­e­fo­re requi­re pro­s­pec­ti­ve pro­vi­ders to have a real-world test­ing plan sub­mit­ted to com­pe­tent mar­ket sur­veil­lan­ce aut­ho­ri­ty, regi­ster the test­ing in dedi­ca­ted sec­tions in the EU data­ba­se sub­ject to some limi­t­ed excep­ti­ons, set limi­ta­ti­ons on the peri­od for which the test­ing can be done and requi­re addi­tio­nal safe­guards for per­sons belon­ging to cer­tain vul­nerable groups, as well as a writ­ten agree­ment defi­ning the roles and respon­si­bi­li­ties of pro­s­pec­ti­ve pro­vi­ders and deployers and effec­ti­ve over­sight by com­pe­tent per­son­nel invol­ved in the real world test­ing. En out­re, il con­vi­ent d’en­vi­sa­ger des garan­ties sup­p­lé­men­tai­res pour s’assurer que les pré­dic­tions, recom­man­da­ti­ons ou décis­i­ons du système d’in­tel­li­gence arti­fi­ci­el­le peu­vent être effec­ti­ve­ment inver­sées et igno­rées et que les don­nées à carac­tère per­son­nel sont pro­té­gées et détrui­tes lorsque les sujets ont reti­ré leur con­sen­te­ment à par­ti­ci­per au test sans pré­ju­di­ce de leurs droits en tant que sujets de don­nées en ver­tu de la légis­la­ti­on de l’U­ni­on en matiè­re de pro­tec­tion des don­nées. En ce qui con­cer­ne le trans­fert de don­nées, il est éga­le­ment appro­prié d’en­vi­sa­ger que les don­nées coll­ec­tées et trai­tées à des fins de test dans des con­di­ti­ons réel­les ne soi­ent trans­fé­rées vers des pays tiers que si des garan­ties appro­priées et appli­ca­bles en ver­tu du droit de l’U­ni­on sont mises en œuvre, en par­ti­cu­lier con­for­mé­ment aux bases pour le trans­fert de don­nées à carac­tère per­son­nel en ver­tu du droit de l’U­ni­on sur la pro­tec­tion des don­nées, tan­dis que pour les don­nées non per­son­nel­les, des garan­ties appro­priées sont mises en place con­for­mé­ment au droit de l’U­ni­on, tels que les règle­ments (UE) 2022/868 et (UE) 2023/2854 du Par­le­ment euro­pé­en et du Conseil.

Artic­le 61 Con­sen­te­ment éclai­ré pour par­ti­ci­per à des essais dans des con­di­ti­ons réel­les en dehors des sand­bo­xes régle­men­tai­res en matiè­re d’IA

1. Aux fins des tests en con­di­ti­ons réel­les visés à l’ar­tic­le 60, le con­sen­te­ment lib­re et éclai­ré des sujets de recher­che doit être obte­nu avant leur par­ti­ci­pa­ti­on à de tels tests et après qu’ils ont été dûment infor­més au moy­en d’in­for­ma­ti­ons con­cis­es, clai­res, per­ti­nen­tes et com­pré­hen­si­bles sur les sujets concernés :

(a) la natu­re et les objec­tifs du test dans des con­di­ti­ons réel­les et l’in­con­vé­ni­ent éven­tuel lié à leur participation ;

(b) les con­di­ti­ons dans les­quel­les le test en con­di­ti­ons réel­les doit être réa­li­sé, y com­pris la durée pré­vue de la par­ti­ci­pa­ti­on du sujet ou des sujets ;

(c) leurs droits, et les garan­ties con­cer­nant leur par­ti­ci­pa­ti­on, en par­ti­cu­lier leur droit de refu­ser de par­ti­ci­per, et le droit de se reti­rer, des tests dans les con­di­ti­ons du mon­de réel à tout moment sans aucun pré­ju­di­ce résul­tant et sans avoir à four­nir de justification ;

(d) les moda­li­tés de deman­de d’an­nu­la­ti­on ou de désa­veu des pré­dic­tions, recom­man­da­ti­ons ou décis­i­ons du système d’in­for­ma­ti­on sur les accidents ;

(e) le numé­ro d’i­den­ti­fi­ca­ti­on uni­que, valable dans tou­te l’U­ni­on, du test en con­di­ti­ons réel­les, con­for­mé­ment à l’ar­tic­le 60, para­gra­phe 4, point (c), et les coor­don­nées du four­nis­seur ou de son repré­sen­tant légal auprès duquel des infor­ma­ti­ons com­plé­men­tai­res peu­vent être obtenues.

2. Le con­sen­te­ment éclai­ré doit être daté et docu­men­té, et une copie doit être remi­se aux sujets de l’es­sai ou à leur repré­sen­tant légal.

Artic­le 62 Mesu­res pour les four­nis­seurs et les dis­tri­bu­teurs, en par­ti­cu­lier les PME, y com­pris les start-ups

1. Les États mem­bres pren­nent les mesu­res suivantes :

(a) accor­dent aux PME, y com­pris aux jeu­nes pous­ses, qui ont un bureau enre­gi­stré ou une suc­cur­sa­le dans l’U­ni­on, un accès prio­ri­taire au cad­re régle­men­tai­re de l’AI, pour autant qu’el­les rem­plis­sent les con­di­ti­ons d’ad­mis­si­bi­li­té et les critères de sélec­tion ; cet accès prio­ri­taire ne doit pas empêcher les aut­res PME, y com­pris les jeu­nes pous­ses, aut­res que cel­les visées au pré­sent para­gra­phe, d’ac­cé­der au cad­re régle­men­tai­re de l’AI, à con­di­ti­on qu’el­les rem­plis­sent éga­le­ment les con­di­ti­ons d’ad­mis­si­bi­li­té et les critères de sélection ;

(b) orga­ni­s­ent des acti­vi­tés spé­ci­fi­ques de sen­si­bi­li­sa­ti­on et de for­ma­ti­on sur l’ap­pli­ca­ti­on du pré­sent règle­ment, adap­tées aux beso­ins des PME, y com­pris les jeu­nes pous­ses, les tra­vail­leurs dét­a­chés et, le cas échéant, les auto­ri­tés publi­ques locales ;

(c) uti­li­ser les canaux dédiés exi­stants et, le cas échéant, en cré­er de nou­veaux pour com­mu­ni­quer avec les PME, y com­pris les jeu­nes pous­ses, les déployeurs, les aut­res inno­va­teurs et, le cas échéant, les auto­ri­tés publi­ques loca­les, afin de four­nir des con­seils et de répond­re aux que­sti­ons con­cer­nant la mise en œuvre du pré­sent règle­ment, y com­pris en ce qui con­cer­ne la par­ti­ci­pa­ti­on aux “sand­bo­xes” régle­men­tai­res en matiè­re d’IA ;

(d) faci­li­tent la par­ti­ci­pa­ti­on des PME et des aut­res par­ties pren­an­tes con­cer­nées au pro­ce­s­sus d’é­la­bo­ra­ti­on des normes.

2. Les inté­rêts et beso­ins spé­ci­fi­ques des four­nis­seurs de PME, y com­pris les jeu­nes pous­ses, sont pris en comp­te lors de la fix­a­ti­on des rede­van­ces pour l’éva­lua­ti­on de la con­for­mi­té visée à l’ar­tic­le 43, en rédui­sant ces rede­van­ces pro­por­ti­on­nel­le­ment à leur tail­le, à la tail­le de leur mar­ché et à d’aut­res indi­ca­teurs pertinents.

3. Le bureau de l’AI doit prend­re les mesu­res suivantes :

(a) four­nir des modè­les stan­dar­di­sés pour les domain­es cou­verts par le pré­sent règle­ment, com­me spé­ci­fié par le Con­seil dans sa demande ;

(b) déve­lo­p­pent et main­ti­en­nent une pla­te-for­me d’in­for­ma­ti­on uni­que four­nis­sant à tous les opé­ra­teurs de l’U­ni­on des infor­ma­ti­ons faci­les à uti­li­ser en rap­port avec le pré­sent règlement ;

(c) orga­ni­se des cam­pa­gnes de com­mu­ni­ca­ti­on appro­priées afin de sen­si­bi­li­ser aux obli­ga­ti­ons décou­lant du pré­sent règlement ;

(d) éva­luer et pro­mou­voir la con­ver­gence des meil­leu­res pra­ti­ques dans les pro­cé­du­res de mar­chés publics en rela­ti­on avec les systè­mes d’IA.

Artic­le 63 Déro­ga­ti­ons pour des opé­ra­teurs spécifiques

1. Les microentre­pri­ses au sens de la recom­man­da­ti­on 2003/361/CE peu­vent se con­for­mer de maniè­re sim­pli­fi­ée à cer­ta­ins élé­ments du système de gesti­on de la qua­li­té requis par l’ar­tic­le 17 du pré­sent règle­ment, à con­di­ti­on qu’el­les n’ai­ent pas d’entre­pri­ses par­ten­aires ou liées au sens de ladi­te recom­man­da­ti­on. cet­te fin, la Com­mis­si­on éla­bo­re des lignes direc­tri­ces sur les élé­ments du système de gesti­on de la qua­li­té qui peu­vent être respec­tés de maniè­re sim­pli­fi­ée, en tenant comp­te des beso­ins des microentre­pri­ses, sans por­ter att­ein­te au niveau de pro­tec­tion ou à la néces­si­té de se con­for­mer aux exi­gen­ces rela­ti­ves aux systè­mes d’assu­rance qua­li­té à haut risque.

(146) En out­re, comp­te tenu de la très peti­te tail­le de cer­ta­ins opé­ra­teurs et afin d’assurer la pro­por­ti­on­na­li­té en ce qui con­cer­ne les coûts de l’in­no­va­ti­on, il est appro­prié de per­mett­re aux micro-ent­re­pri­ses de rem­plir l’u­ne des obli­ga­ti­ons les plus coûteu­ses, à savoir l’é­ta­blis­se­ment d’un système de gesti­on de la qua­li­té, d’u­ne maniè­re sim­pli­fi­ée qui rédui­rait la char­ge admi­ni­stra­ti­ve et les coûts pour ces ent­re­pri­ses sans affec­ter le niveau de pro­tec­tion et le beso­in de con­for­mi­té avec les exi­gen­ces des systè­mes d’IA à haut ris­que. La Com­mis­si­on dev­rait éla­bo­rer des lignes direc­tri­ces pré­cisant les élé­ments du système de gesti­on de la qua­li­té qui doi­vent être rem­p­lis de cet­te maniè­re sim­pli­fi­ée par les micro-entreprises.

2. Le para­gra­phe 1 du pré­sent artic­le ne peut être inter­pré­té com­me dis­pensant ces opé­ra­teurs de satis­fai­re à tou­te aut­re exi­gence ou obli­ga­ti­on pré­vue par le pré­sent règle­ment, y com­pris cel­les énon­cées aux artic­les 9, 10, 11, 12, 13, 14, 15, 72 et 73.

Cha­pit­re VII Gouvernance

Sec­tion 1 Gou­ver­nan­ce au niveau de l’Union

Artic­le 64 AI Office

1. La Com­mis­si­on doit déve­lo­p­per l’ex­per­ti­se et les capa­ci­tés de l’U­ni­on dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le par l’in­ter­mé­di­ai­re de l’AI Office.

2. Les États mem­bres faci­li­tent les tâches con­fiées à l’AI Office, tel­les qu’el­les sont défi­nies dans le pré­sent règlement.

(148) Le pré­sent règle­ment dev­rait éta­b­lir un cad­re de gou­ver­nan­ce qui per­met­te à la fois de coor­don­ner et de sou­te­nir l’ap­pli­ca­ti­on du pré­sent règle­ment au niveau natio­nal, de ren­forcer les capa­ci­tés au niveau de l’U­ni­on et d’in­té­grer les par­ties pren­an­tes dans le domaine de l’IA. La mise en œuvre et l’ap­pli­ca­ti­on effec­ti­ves de ce règle­ment requiè­rent un cad­re de gou­ver­nan­ce qui per­met­te de coor­don­ner et de déve­lo­p­per une exper­ti­se cen­tra­le au niveau de l’U­ni­on. L’AI Office a été créé par décis­i­on de la Com­mis­si­on et a pour mis­si­on de déve­lo­p­per l’ex­per­ti­se et les capa­ci­tés de l’U­ni­on dans le domaine de l’IA et de con­tri­buer à la mise en œuvre de la légis­la­ti­on de l’U­ni­on en la matiè­re. Les États mem­bres dev­rai­ent faci­li­ter les tâches de l’Of­fice AI dans le but de sou­te­nir le déve­lo­p­pe­ment de l’ex­per­ti­se et des capa­ci­tés de l’U­ni­on au niveau de l’U­ni­on et de ren­forcer le fonc­tion­ne­ment du mar­ché uni­que numé­ri­que. En out­re, il con­vi­ent d’é­ta­b­lir un con­seil com­po­sé de repré­sen­tants des États mem­bres, un panel sci­en­ti­fi­que pour inté­grer la com­mun­au­té sci­en­ti­fi­que et un forum con­sul­ta­tif pour con­tri­buer à la mise en œuvre du pré­sent règle­ment, au niveau de l’U­ni­on et au niveau natio­nal. Le déve­lo­p­pe­ment de l’ex­per­ti­se et des capa­ci­tés de l’U­ni­on dev­rait éga­le­ment inclu­re l’uti­li­sa­ti­on des res­sour­ces et de l’ex­per­ti­se exi­stan­tes, notam­ment par le biais de syn­er­gies avec les struc­tures mises en place dans le cad­re de l’ap­pli­ca­ti­on d’aut­res lois au niveau de l’U­ni­on et de syn­er­gies avec des initia­ti­ves con­ne­xes au niveau de l’U­ni­on, tel­les que l’Entre­pri­se com­mu­ne EuroHPC et les instal­la­ti­ons de test et d’expé­ri­men­ta­ti­on IA dans le cad­re du pro­gram­me Euro­pe numérique.

Artic­le 65 Éta­blis­se­ment et struc­tu­re du Con­seil euro­pé­en de l’in­tel­li­gence artificielle

1. Un con­seil euro­pé­en de l’in­tel­li­gence arti­fi­ci­el­le (le “con­seil”) est insti­tué par les présentes.

2. Le con­seil d’ad­mi­ni­stra­ti­on est com­po­sé d’un repré­sen­tant par État membre. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées y par­ti­ci­pe en tant qu’ob­ser­va­teur. Le Bureau de l’AI peut éga­le­ment assi­ster aux réuni­ons du Con­seil, sans prend­re part aux votes. D’aut­res auto­ri­tés, orga­nes ou experts nati­on­aux et de l’U­ni­on peu­vent être invi­tés aux réuni­ons par le con­seil d’ad­mi­ni­stra­ti­on, au cas par cas, lorsque les que­sti­ons dis­cu­tées sont per­ti­nen­tes pour eux.

3. Chaque repré­sen­tant est dési­gné par son État membre pour une péri­ode de trois ans, renou­velable une fois.

4. Les États mem­bres veil­lent à ce que leurs repré­sen­tants au sein du con­seil d’administration :

(a) ont les com­pé­ten­ces et les pou­voirs appro­priés dans leur État membre pour con­tri­buer acti­ve­ment à la réa­li­sa­ti­on des tâches du Con­seil visées à l’ar­tic­le 66 ;

(b) sont dési­gnés com­me point de cont­act uni­que vis-à-vis du Con­seil et, le cas échéant, en tenant comp­te des beso­ins des États mem­bres, com­me point de cont­act uni­que pour les par­ties prenantes ;

(c) sont habi­li­tés à faci­li­ter la cohé­rence et la coor­di­na­ti­on ent­re les auto­ri­tés natio­na­les com­pé­ten­tes de leur État membre en ce qui con­cer­ne la mise en œuvre du pré­sent règle­ment, y com­pris par la coll­ec­te des don­nées et infor­ma­ti­ons per­ti­nen­tes aux fins de l’ac­com­plis­se­ment de leurs tâches au sein du con­seil d’administration.

5. Les repré­sen­tants dési­gnés des États mem­bres adoptent les règles de pro­cé­du­re du Con­seil à la majo­ri­té des deux tiers. Les règles de pro­cé­du­re fixent, en par­ti­cu­lier, les moda­li­tés de la pro­cé­du­re de sélec­tion, la durée du man­dat du pré­si­dent et les spé­ci­fi­ca­ti­ons de ses tâches, les moda­li­tés détail­lées du vote et l’or­ga­ni­sa­ti­on des acti­vi­tés du Con­seil et de ses sous-groupes.

6. Le Con­seil doit éta­b­lir deux sous-grou­pes per­ma­nents afin de four­nir une pla­te-for­me de coopé­ra­ti­on et d’é­ch­an­ge ent­re les auto­ri­tés de sur­veil­lan­ce du mar­ché et les auto­ri­tés de noti­fi­ca­ti­on sur les que­sti­ons rela­ti­ves à la sur­veil­lan­ce du mar­ché et aux orga­nis­mes noti­fi­és, respectivement.

Le sous-grou­pe per­ma­nent de sur­veil­lan­ce du mar­ché dev­rait agir en tant que grou­pe de coopé­ra­ti­on admi­ni­stra­ti­ve (ADCO) pour le pré­sent règle­ment, con­for­mé­ment à l’ar­tic­le 30 du règle­ment (UE) 2019/1020.

Le con­seil d’ad­mi­ni­stra­ti­on peut cré­er d’aut­res sous-grou­pes per­ma­nents ou tem­po­rai­res appro­priés pour l’ex­amen de que­sti­ons spé­ci­fi­ques. Le cas échéant, des repré­sen­tants du forum con­sul­ta­tif visé à l’ar­tic­le 67 peu­vent être invi­tés à par­ti­ci­per à de tels sous-grou­pes ou à des réuni­ons spé­ci­fi­ques de ces sous-grou­pes en qua­li­té d’observateurs.

7. Le con­seil d’ad­mi­ni­stra­ti­on est orga­ni­sé et fonc­tion­ne de maniè­re à garan­tir l’ob­jec­ti­vi­té et l’im­par­tia­li­té de ses activités.

8. Le Con­seil est pré­si­dé par un des repré­sen­tants des États mem­bres. Le Bureau de l’AI assu­re le secré­ta­ri­at du Con­seil, con­vo­que les réuni­ons à la deman­de du pré­si­dent et en prépa­re l’ord­re du jour con­for­mé­ment aux tâches qui lui incom­bent en ver­tu du pré­sent règle­ment et de ses règles de procédure.

(149) Afin de faci­li­ter une mise en œuvre sou­ple, effi­cace et har­mo­ni­sée du pré­sent règle­ment, il con­vi­ent d’in­sti­tuer un con­seil. Le con­seil dev­rait reflé­ter les dif­fér­ents inté­rêts de l’é­co­sy­stème AI et être com­po­sé de repré­sen­tants des États mem­bres. Le con­seil dev­rait être responsable d’un cer­tain nombre de tâches con­sul­ta­ti­ves, y com­pris l’é­mis­si­on d’a­vis, de recom­man­da­ti­ons, de con­seils ou la con­tri­bu­ti­on à l’o­ri­en­ta­ti­on sur des que­sti­ons liées à la mise en œuvre du pré­sent règle­ment, y com­pris sur des que­sti­ons d’ap­pli­ca­ti­on, des spé­ci­fi­ca­ti­ons tech­ni­ques ou des nor­mes exi­stan­tes con­cer­nant les exi­gen­ces éta­b­lies dans le pré­sent règle­ment, et la four­ni­tu­re de con­seils à la Com­mis­si­on et aux États mem­bres et à leurs auto­ri­tés natio­na­les com­pé­ten­tes sur des que­sti­ons spé­ci­fi­ques liées à l’IA. Afin de don­ner aux États mem­bres une cer­taine sou­ples­se dans la dési­gna­ti­on de leurs repré­sen­tants au sein du con­seil, ces repré­sen­tants peu­vent être des per­son­nes appar­tenant à des enti­tés publi­ques qui dev­rai­ent avoir les com­pé­ten­ces et les pou­voirs néces­saires pour faci­li­ter la coor­di­na­ti­on au niveau natio­nal et con­tri­buer à la réa­li­sa­ti­on des tâches du con­seil. Le Con­seil dev­rait éta­b­lir deux sous-grou­pes per­ma­nents afin de four­nir une pla­te-for­me de coopé­ra­ti­on et d’é­ch­an­ge ent­re les auto­ri­tés de sur­veil­lan­ce du mar­ché et de noti­fi­ca­ti­on aux auto­ri­tés des que­sti­ons rela­ti­ves, respec­ti­ve­ment, à la sur­veil­lan­ce du mar­ché et aux orga­nis­mes noti­fi­és. Le sous-grou­pe per­ma­nent de sur­veil­lan­ce du mar­ché dev­rait agir en tant que grou­pe de coopé­ra­ti­on admi­ni­stra­ti­ve (ADCO) pour le pré­sent règle­ment au sens de l’ar­tic­le 30 du règle­ment (UE) 2019/1020. Con­for­mé­ment à l’ar­tic­le 33 dudit règle­ment, la Com­mis­si­on dev­rait sou­te­nir les acti­vi­tés du sous-grou­pe per­ma­nent de sur­veil­lan­ce du mar­ché en réa­li­sant des éva­lua­tions ou des étu­des de mar­ché, notam­ment en vue d’i­den­ti­fier les aspects du pré­sent règle­ment qui néces­si­tent une coor­di­na­ti­on spé­ci­fi­que et urgen­te ent­re les auto­ri­tés de sur­veil­lan­ce du mar­ché. Le con­seil d’ad­mi­ni­stra­ti­on peut cré­er d’aut­res sous-grou­pes per­ma­nents ou tem­po­rai­res, le cas échéant, afin d’ex­ami­ner des que­sti­ons spé­ci­fi­ques. Le Con­seil dev­rait éga­le­ment coopé­rer, le cas échéant, avec les orga­nes, grou­pes d’ex­perts et réseaux de l’U­ni­on con­cer­nés, actifs dans le cad­re de la légis­la­ti­on euro­pé­en­ne per­ti­nen­te, y com­pris, en par­ti­cu­lier, ceux qui sont actifs en ver­tu de la légis­la­ti­on euro­pé­en­ne per­ti­nen­te en matiè­re de don­nées, de pro­duits et de ser­vices numériques.

Artic­le 66 Tâches du con­seil d’administration

Le Con­seil con­seil­le et assi­ste la Com­mis­si­on et les États mem­bres en vue de faci­li­ter l’ap­pli­ca­ti­on cohé­ren­te et effec­ti­ve du pré­sent règle­ment. À cet­te fin, le Con­seil peut notamment

(a) con­tri­buent à la coor­di­na­ti­on ent­re les auto­ri­tés natio­na­les com­pé­ten­tes char­gées de l’ap­pli­ca­ti­on du pré­sent règle­ment et, en coopé­ra­ti­on avec les auto­ri­tés de sur­veil­lan­ce du mar­ché con­cer­nées et sous réser­ve de leur accord, sou­ti­en­nent les acti­vi­tés com­mu­nes des auto­ri­tés de sur­veil­lan­ce du mar­ché visées à l’ar­tic­le 74, para­gra­phe 11 ;

(b) recu­eil­lir et par­ta­ger l’ex­per­ti­se tech­ni­que et régle­men­tai­re et les meil­leu­res pra­ti­ques ent­re les États membres ;

(c) four­nis­sent des con­seils sur la mise en œuvre du pré­sent règle­ment, en par­ti­cu­lier en ce qui con­cer­ne l’ap­pli­ca­ti­on des règles rela­ti­ves aux modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge général ;

(d) con­tri­buent à l’har­mo­ni­sa­ti­on des pra­ti­ques admi­ni­stra­ti­ves dans les États mem­bres, y com­pris en ce qui con­cer­ne la déro­ga­ti­on aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té visée à l’ar­tic­le 46, le fonc­tion­ne­ment des sand­bo­xes régle­men­tai­res en matiè­re d’IA et les essais en con­di­ti­ons réel­les visés aux artic­les 57, 59 et 60 ;

(e) à la deman­de de la Com­mis­si­on ou de sa pro­pre initia­ti­ve, émett­re des recom­man­da­ti­ons et des avis écrits sur tou­te que­sti­on per­ti­nen­te rela­ti­ve à la mise en œuvre du pré­sent règle­ment et à son appli­ca­ti­on cohé­ren­te et effec­ti­ve, notamment

(i) sur l’é­la­bo­ra­ti­on et l’ap­pli­ca­ti­on de codes de con­duite et de codes de bon­nes pra­ti­ques en ver­tu du pré­sent règle­ment, ain­si que des lignes direc­tri­ces de la Commission ;

(ii) l’éva­lua­ti­on et le réex­amen du pré­sent règle­ment con­for­mé­ment à l’ar­tic­le 112, y com­pris en ce qui con­cer­ne les rap­ports d’in­ci­dents gra­ves visés à l’ar­tic­le 73, et le fonc­tion­ne­ment de la base de don­nées de l’U­ni­on visée à l’ar­tic­le 71, la pré­pa­ra­ti­on des actes délé­gués ou d’exé­cu­ti­on, et en ce qui con­cer­ne les ali­gne­ments éven­tuels du pré­sent règle­ment sur la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I ;

(iii) sur les spé­ci­fi­ca­ti­ons tech­ni­ques ou les nor­mes exi­stan­tes con­cer­nant les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2 ;

(iv) sur l’uti­li­sa­ti­on de nor­mes har­mo­ni­sées ou de spé­ci­fi­ca­ti­ons com­mu­nes visées aux artic­les 40 et 41 ;

(v) les ten­dan­ces, tel­les que la com­pé­ti­ti­vi­té mon­dia­le de l’Eu­ro­pe en matiè­re d’IA, la mon­tée en puis­sance de l’IA dans l’U­ni­on et le déve­lo­p­pe­ment des com­pé­ten­ces numériques ;

(vi) ten­dan­ces sur l’é­vo­lu­ti­on de la typo­lo­gie des chaî­nes de valeur IA, en par­ti­cu­lier sur les impli­ca­ti­ons qui en décou­lent en ter­mes de responsabilité ;

(vii) sur le beso­in poten­tiel de modi­fier l’an­ne­xe III con­for­mé­ment à l’ar­tic­le 7, et sur le beso­in poten­tiel de révi­ser l’ar­tic­le 5 con­for­mé­ment à l’ar­tic­le 112, en tenant comp­te des élé­ments de preuve per­tin­ents dis­po­ni­bles et des der­niè­res évo­lu­ti­ons technologiques ;

(f) aider la Com­mis­si­on à pro­mou­voir l’al­pha­bé­ti­sa­ti­on en matiè­re d’IA, la sen­si­bi­li­sa­ti­on du public et la com­pré­hen­si­on des avan­ta­ges, des ris­ques, des garan­ties et des droits et obli­ga­ti­ons liés à l’uti­li­sa­ti­on des systè­mes d’IA ;

(g) faci­li­tent l’é­la­bo­ra­ti­on de critères com­muns et une com­pré­hen­si­on par­ta­gée ent­re les opé­ra­teurs du mar­ché et les auto­ri­tés com­pé­ten­tes des con­cepts per­tin­ents pré­vus par le pré­sent règle­ment, y com­pris en con­tri­buant à l’é­la­bo­ra­ti­on de critères de référence ;

(h) coopè­rent, le cas échéant, avec d’aut­res insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on, ain­si qu’a­vec les grou­pes et réseaux d’ex­perts de l’U­ni­on con­cer­nés, en par­ti­cu­lier dans les domain­es de la sécu­ri­té des pro­duits, de la cyber­sé­cu­ri­té, de la con­cur­rence, des ser­vices numé­ri­ques et média­ti­ques, des ser­vices finan­ciers, de la pro­tec­tion des con­som­ma­teurs, des don­nées et de la pro­tec­tion des droits fondamentaux ;

(i) con­tri­buent à une coopé­ra­ti­on effi­cace avec les auto­ri­tés com­pé­ten­tes des pays tiers et avec les orga­ni­sa­ti­ons internationales ;

(j) assi­stent les auto­ri­tés natio­na­les com­pé­ten­tes et la Com­mis­si­on dans le déve­lo­p­pe­ment des com­pé­ten­ces orga­ni­sa­ti­on­nel­les et tech­ni­ques néces­saires à la mise en œuvre du pré­sent règle­ment, y com­pris en con­tri­buant à l’éva­lua­ti­on des beso­ins en matiè­re de for­ma­ti­on du per­son­nel des États mem­bres par­ti­ci­pant à la mise en œuvre du pré­sent règlement ;

(k) assi­ste­ra l’AI Office en sou­tenant les auto­ri­tés natio­na­les com­pé­ten­tes dans la mise en place et le déve­lo­p­pe­ment de “sand­bo­xes” régle­men­tai­res en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, et faci­li­te­ra la coopé­ra­ti­on et le par­ta­ge d’in­for­ma­ti­ons ent­re les “sand­bo­xes” régle­men­tai­res en matiè­re d’in­tel­li­gence artificielle ;

(l) con­tri­buer à, et four­nir des con­seils per­tin­ents sur, l’é­la­bo­ra­ti­on de docu­ments d’orientation ;

(m) con­seil­ler la Com­mis­si­on sur les que­sti­ons inter­na­tio­na­les rela­ti­ves à l’IA ;

(n) four­nir des avis à la Com­mis­si­on sur les aler­tes qua­li­fi­ées con­cer­nant les modè­les d’IA à usa­ge général ;

(o) rece­voir les avis des États mem­bres sur les aler­tes qua­li­fi­ées con­cer­nant les modè­les d’IA à usa­ge géné­ral, ain­si que sur les expé­ri­en­ces et les pra­ti­ques natio­na­les en matiè­re de sur­veil­lan­ce et d’ap­pli­ca­ti­on des systè­mes d’IA, en par­ti­cu­lier les systè­mes inté­grant les modè­les d’IA à usa­ge général.

Artic­le 67 Forum consultatif

1. Un forum con­sul­ta­tif est mis en place pour four­nir une exper­ti­se tech­ni­que et des con­seils au con­seil d’ad­mi­ni­stra­ti­on et à la Com­mis­si­on, et pour con­tri­buer à leurs tâches au tit­re du pré­sent règlement.

2. L’ad­hé­si­on au forum con­sul­ta­tif doit repré­sen­ter une sélec­tion équi­li­brée de par­ties pren­an­tes, y com­pris l’in­du­strie, les start-ups, les PME, la socié­té civi­le et le mon­de uni­ver­si­taire. La par­ti­ci­pa­ti­on au forum con­sul­ta­tif doit être équi­li­brée en ce qui con­cer­ne les inté­rêts com­mer­ci­aux et non com­mer­ci­aux et, dans la caté­go­rie des inté­rêts com­mer­ci­aux, en ce qui con­cer­ne les PME et les aut­res entreprises.

3. La Com­mis­si­on dési­gne les mem­bres du forum con­sul­ta­tif, con­for­mé­ment aux critères énon­cés au para­gra­phe 2, par­mi les par­ties pren­an­tes dont l’ex­per­ti­se dans le domaine de l’IA est reconnue.

4. La durée du man­dat des mem­bres du forum con­sul­ta­tif est de deux ans, qui peut être pro­lon­gée jus­qu’à quat­re ans au maximum.

5. L’A­gence des droits fon­da­men­taux, l’E­NISA, le Comi­té euro­pé­en de nor­ma­li­sa­ti­on (CEN), le Comi­té euro­pé­en de nor­ma­li­sa­ti­on élec­tro­tech­ni­que (CENELEC) et l’In­sti­tut euro­pé­en des nor­mes de télé­com­mu­ni­ca­ti­on (ETSI) doi­vent être mem­bres per­ma­nents du forum consultatif.

6. Le forum con­sul­ta­tif éta­blit ses règles de pro­cé­du­re. Il élit deux co-con­seil­lers par­mi ses mem­bres, con­for­mé­ment aux critères énon­cés au para­gra­phe 2. La durée du man­dat des co-con­seil­lers est de deux ans, renou­velable une fois.

7. Le forum con­sul­ta­tif se réu­nit au moins deux fois par an. Le forum con­sul­ta­tif peut invi­ter des experts et d’aut­res par­ties pren­an­tes à ses réunions.

8. Le forum con­sul­ta­tif peut prépa­rer des avis, des recom­man­da­ti­ons et des con­tri­bu­ti­ons écri­tes à la deman­de du con­seil d’ad­mi­ni­stra­ti­on ou de la Commission.

9. Le forum con­sul­ta­tif peut cré­er des sous-grou­pes per­ma­nents ou tem­po­rai­res, le cas échéant, afin d’ex­ami­ner des que­sti­ons spé­ci­fi­ques en rap­port avec les objec­tifs du pré­sent règlement.

10. Le forum con­sul­ta­tif prépa­re un rap­port annu­el sur ses acti­vi­tés. Ce rap­port est mis à la dis­po­si­ti­on du public.

(150) Afin d’assurer la par­ti­ci­pa­ti­on des par­ties pren­an­tes à la mise en œuvre et à l’ap­pli­ca­ti­on du pré­sent règle­ment, un forum con­sul­ta­tif dev­rait être créé pour four­nir des con­seils et une exper­ti­se tech­ni­que au con­seil d’ad­mi­ni­stra­ti­on et à la Com­mis­si­on. Afin d’assurer une repré­sen­ta­ti­on diver­si­fi­ée et équi­li­brée des par­ties pren­an­tes ent­re les inté­rêts com­mer­ci­aux et non com­mer­ci­aux et, dans la caté­go­rie des inté­rêts com­mer­ci­aux, en ce qui con­cer­ne les PME et les aut­res ent­re­pri­ses, le forum con­sul­ta­tif dev­rait com­prend­re, ent­re aut­res, l’in­du­strie, les start-ups, les PME, le mon­de uni­ver­si­taire, la socié­té civi­le, y com­pris les par­ten­aires soci­aux, ain­si que l’A­gence des droits fon­da­men­taux, l’E­NISA, le Comi­té euro­pé­en de nor­ma­li­sa­ti­on (CEN), le Comi­té euro­pé­en de nor­ma­li­sa­ti­on élec­tro­tech­ni­que (CENELEC) et l’In­sti­tut euro­pé­en des nor­mes de télé­com­mu­ni­ca­ti­on (ETSI).

Artic­le 68 Panel sci­en­ti­fi­que d’ex­perts indépendants

1. La Com­mis­si­on adop­te, au moy­en d’un acte d’exé­cu­ti­on, des dis­po­si­ti­ons rela­ti­ves à la créa­ti­on d’un grou­pe sci­en­ti­fi­que d’ex­perts indé­pen­dants (le “grou­pe sci­en­ti­fi­que”) char­gé de sou­te­nir les acti­vi­tés d’exé­cu­ti­on du pré­sent règle­ment. Cet acte d’exé­cu­ti­on est adop­té con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

2. Le grou­pe sci­en­ti­fi­que est com­po­sé d’ex­perts choi­sis par la Com­mis­si­on sur la base d’u­ne exper­ti­se sci­en­ti­fi­que ou tech­ni­que actua­li­sée dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le, néces­saire pour les tâches visées au para­gra­phe 3, et doit être en mesu­re de démon­trer qu’il rem­plit tou­tes les con­di­ti­ons suivantes :

(a) ayant une exper­ti­se et des com­pé­ten­ces par­ti­cu­liè­res et une exper­ti­se sci­en­ti­fi­que ou tech­ni­que dans le domaine de l’IA ;

(b) l’in­dé­pen­dance vis-à-vis de tout four­nis­seur de systè­mes d’in­tel­li­gence arti­fi­ci­el­le ou de modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge général ;

(c) une capa­ci­té à effec­tuer des acti­vi­tés de maniè­re dili­gen­te, pré­cise et objective.

La Com­mis­si­on, en con­sul­ta­ti­on avec le con­seil d’ad­mi­ni­stra­ti­on, déter­mi­ne le nombre d’ex­perts du grou­pe spé­cial en fonc­tion des beso­ins et assu­re une repré­sen­ta­ti­on équi­ta­ble des hom­mes et des femmes ain­si qu’u­ne repré­sen­ta­ti­on géographique.

3. Le grou­pe sci­en­ti­fi­que est char­gé de con­seil­ler et d’as­si­ster le Bureau de l’AI, en par­ti­cu­lier en ce qui con­cer­ne les tâches suivantes :

(a) sou­te­nir la mise en œuvre et l’ap­pli­ca­ti­on du pré­sent règle­ment en ce qui con­cer­ne les modè­les et les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, notam­ment par :

(i) aler­ter l’AI Office d’é­ven­tuels ris­ques sys­té­mi­ques au niveau de l’U­ni­on de modè­les d’AI à usa­ge géné­ral, con­for­mé­ment à l’ar­tic­le 90 ;

(ii) con­tri­buer au déve­lo­p­pe­ment d’ou­tils et de métho­do­lo­gies pour l’éva­lua­ti­on des capa­ci­tés des modè­les et des systè­mes d’IA à usa­ge géné­ral, y com­pris par le biais de critères de référence ;

(iii) four­nir des con­seils sur la clas­si­fi­ca­ti­on des modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique ;

(iv) four­nir des con­seils sur la clas­si­fi­ca­ti­on de divers modè­les et systè­mes d’IA à usa­ge général ;

(v) con­tri­buer au déve­lo­p­pe­ment d’ou­tils et de modèles ;

(b) sou­te­nir le tra­vail des auto­ri­tés de sur­veil­lan­ce du mar­ché, à leur demande ;

(c) sou­te­nir les acti­vi­tés trans­fron­ta­liè­res de sur­veil­lan­ce du mar­ché visées à l’ar­tic­le 74, para­gra­phe 11, sans pré­ju­di­ce des pou­voirs des auto­ri­tés de sur­veil­lan­ce du marché ;

(d) d’as­si­ster l’Of­fice AI dans l’e­xer­ci­ce de ses fonc­tions dans le cad­re de la pro­cé­du­re de sau­vegar­de de l’U­ni­on visée à l’ar­tic­le 81.

(163) Dans le but de com­plé­ter les systè­mes de gou­ver­nan­ce pour les modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, le grou­pe sci­en­ti­fi­que dev­rait sou­te­nir les acti­vi­tés de sui­vi de l’AI Office et peut, dans cer­ta­ins cas, four­nir des aler­tes qua­li­fi­ées à l’AI Office qui déclen­chent des sui­vis, tels que des enquêtes. Ce dev­rait être le cas lorsque le panel sci­en­ti­fi­que a des rai­sons de pen­ser qu’un modè­le d’IA à usa­ge géné­ral pré­sen­te un ris­que con­cret et iden­ti­fia­ble au niveau de l’U­ni­on. En out­re, ce dev­rait être le cas lorsque le panel sci­en­ti­fi­que a des rai­sons de pen­ser qu’un modè­le d’AI à usa­ge géné­ral répond aux critères qui con­dui­rai­ent à une clas­si­fi­ca­ti­on en tant que modè­le d’AI à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que. Afin de four­nir au grou­pe sci­en­ti­fi­que les infor­ma­ti­ons néces­saires à l’ac­com­plis­se­ment de ces tâches, il dev­rait exi­ster un méca­nis­me par lequel le grou­pe sci­en­ti­fi­que peut deman­der à la Com­mis­si­on de deman­der de la docu­men­ta­ti­on ou des infor­ma­ti­ons à un fournisseur.

4. Les experts du grou­pe sci­en­ti­fi­que s’ac­quit­tent de leurs tâches en tou­te impar­tia­li­té et objec­ti­vi­té et garan­tis­sent la con­fi­den­tia­li­té des infor­ma­ti­ons et des don­nées recu­eil­lies dans l’e­xer­ci­ce de leurs fonc­tions et acti­vi­tés. Ils ne solli­ci­tent ni n’ac­cept­ent d’ins­truc­tions de qui­con­que dans l’e­xer­ci­ce des tâches visées au para­gra­phe 3. Chaque expert éta­blit une décla­ra­ti­on d’in­té­rêts qui est ren­due publi­que. L’AI Office met en place des systè­mes et des pro­cé­du­res pour gérer et pré­ve­nir acti­ve­ment les con­flits d’in­té­rêts potentiels.

5. L’ac­te d’exé­cu­ti­on visé au para­gra­phe 1 com­prend des dis­po­si­ti­ons rela­ti­ves aux con­di­ti­ons, aux pro­cé­du­res et aux moda­li­tés détail­lées selon les­quel­les le grou­pe sci­en­ti­fi­que et ses mem­bres peu­vent émett­re des aler­tes et deman­der l’as­si­stance de l’AI Office pour l’exé­cu­ti­on des tâches du grou­pe scientifique.

(151) Pour sou­te­nir la mise en œuvre et l’ap­pli­ca­ti­on du pré­sent règle­ment, en par­ti­cu­lier les acti­vi­tés de sui­vi de l’AI Office en ce qui con­cer­ne les modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, il con­vi­ent d’é­ta­b­lir un panel sci­en­ti­fi­que d’ex­perts indé­pen­dants. Les experts indé­pen­dants con­sti­tu­ant le grou­pe sci­en­ti­fi­que dev­rai­ent être choi­sis sur la base d’u­ne exper­ti­se sci­en­ti­fi­que ou tech­ni­que actua­li­sée dans le domaine de l’IA et dev­rai­ent s’ac­quit­ter de leurs tâches avec impar­tia­li­té et objec­ti­vi­té et garan­tir la con­fi­den­tia­li­té des infor­ma­ti­ons et des don­nées obte­nues dans l’e­xer­ci­ce de leurs fonc­tions et de leurs acti­vi­tés. Afin de per­mett­re le ren­force­ment des capa­ci­tés natio­na­les néces­saires à l’ap­pli­ca­ti­on effec­ti­ve du pré­sent règle­ment, les États mem­bres dev­rai­ent pou­voir deman­der l’as­si­stance du grou­pe d’ex­perts con­sti­tu­ant le grou­pe sci­en­ti­fi­que pour leurs acti­vi­tés d’exécution.

Artic­le 69 Accès au pool d’ex­perts par les États membres

1. Les États mem­bres peu­vent fai­re appel aux experts du grou­pe sci­en­ti­fi­que pour les aider dans leurs acti­vi­tés d’exé­cu­ti­on en ver­tu du pré­sent règlement.

2. Les États mem­bres peu­vent être tenus de payer des frais pour les con­seils et l’as­si­stance four­nis par les experts. La struc­tu­re et le niveau des rede­van­ces ain­si que l’é­chel­le et la struc­tu­re des coûts récup­é­ra­bles sont fixés dans l’ac­te d’exé­cu­ti­on visé à l’ar­tic­le 68, para­gra­phe 1, en tenant comp­te des objec­tifs d’u­ne mise en œuvre appro­priée du pré­sent règle­ment, du rap­port coût-effi­ca­ci­té et de la néces­si­té d’assurer un accès effec­tif aux experts pour tous les États membres.

3. La Com­mis­si­on faci­li­te l’ac­cès rapi­de des États mem­bres aux experts, en tant que de beso­in, et veil­le à ce que la com­bi­nai­son des acti­vi­tés de sou­ti­en menées par l’U­ni­on AI test­ing sup­port visée à l’ar­tic­le 84 et par les experts visés au pré­sent artic­le soit orga­ni­sée de maniè­re effi­cace et appor­te la meil­leu­re valeur ajou­tée possible.

Sec­tion 2 Auto­ri­tés natio­na­les compétentes

Artic­le 70 Dési­gna­ti­on des auto­ri­tés natio­na­les com­pé­ten­tes et des points de cont­act uniques

1. Chaque État membre éta­blit ou dési­gne com­me auto­ri­tés natio­na­les com­pé­ten­tes au moins une auto­ri­té de noti­fi­ca­ti­on et au moins une auto­ri­té de sur­veil­lan­ce du mar­ché aux fins du pré­sent règle­ment. Ces auto­ri­tés natio­na­les com­pé­ten­tes exer­cent leurs pou­voirs de maniè­re indé­pen­dan­te, impar­tia­le et non biai­sée, afin de garan­tir l’ob­jec­ti­vi­té de leurs acti­vi­tés et de leurs tâches et d’assurer l’ap­pli­ca­ti­on et la mise en œuvre du pré­sent règle­ment. Les mem­bres de ces auto­ri­tés s’ab­sti­en­nent de tou­te action incom­pa­ti­ble avec leurs fonc­tions. Sous réser­ve du respect de ces prin­cipes, ces acti­vi­tés et ces tâches peu­vent être exer­cées par une ou plu­sieurs auto­ri­tés dési­gnées, en fonc­tion des beso­ins orga­ni­sa­ti­on­nels de l’É­tat membre.

(153) Les États mem­bres jouent un rôle essen­tiel dans l’ap­pli­ca­ti­on et le respect du pré­sent règle­ment. À cet égard, chaque État membre dev­rait dési­gner au moins une auto­ri­té de noti­fi­ca­ti­on et au moins une auto­ri­té de sur­veil­lan­ce du mar­ché en tant qu’­au­to­ri­tés natio­na­les com­pé­ten­tes pour super­vi­ser l’ap­pli­ca­ti­on et la mise en œuvre du pré­sent règle­ment. Les États mem­bres peu­vent déci­der de dési­gner tout type d’en­ti­té publi­que pour exé­cu­ter les tâches des auto­ri­tés com­pé­ten­tes natio­na­les dans le cad­re du pré­sent règle­ment, en fonc­tion de leurs carac­té­ri­sti­ques et beso­ins orga­ni­sa­ti­on­nels nati­on­aux spé­ci­fi­ques. Afin d’ac­croît­re l’ef­fi­ca­ci­té orga­ni­sa­ti­on­nel­le du côté des États mem­bres et de mett­re en place un point de cont­act uni­que vis-à-vis du public et d’aut­res interlo­cu­teurs au niveau des États mem­bres et de l’U­ni­on, chaque État membre dev­rait dési­gner une auto­ri­té de sur­veil­lan­ce du mar­ché pour agir en tant que point de cont­act unique.

(154) Les auto­ri­tés natio­na­les com­pé­ten­tes dev­rai­ent exer­cer leurs pou­voirs de maniè­re indé­pen­dan­te, impar­tia­le et non biai­sée, afin de garan­tir les prin­cipes d’ob­jec­ti­vi­té de leurs acti­vi­tés et de leurs tâches et d’assurer l’ap­pli­ca­ti­on et la mise en œuvre du pré­sent règle­ment. Les mem­bres de ces auto­ri­tés dev­rai­ent s’ab­ste­nir de tou­te action incom­pa­ti­ble avec leurs fonc­tions et dev­rai­ent être sou­mis aux règles de con­fi­den­tia­li­té pré­vues par le pré­sent règlement.

(156) Afin d’assurer une mise en œuvre appro­priée et effi­cace des exi­gen­ces et des obli­ga­ti­ons pré­vues par le pré­sent règle­ment, qui est une légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on, le système de sur­veil­lan­ce du mar­ché et de con­for­mi­té des pro­duits éta­b­li par le règle­ment (UE) 2019/1020 dev­rait s’ap­pli­quer dans son inté­gra­li­té. Les auto­ri­tés de sur­veil­lan­ce du mar­ché dési­gnées en ver­tu du pré­sent règle­ment dev­rai­ent dis­po­ser de tous les pou­voirs d’exé­cu­ti­on pré­vus par le pré­sent règle­ment et par le règle­ment (UE) 2019/1020 et dev­rai­ent exer­cer leurs pou­voirs et s’ac­quit­ter de leurs tâches de maniè­re indé­pen­dan­te, impar­tia­le et non biai­sée. Bien que la majo­ri­té des systè­mes d’in­for­ma­ti­on finan­ciè­re ne soi­ent pas sou­mis à des exi­gen­ces et obli­ga­ti­ons spé­ci­fi­ques en ver­tu du pré­sent règle­ment, les auto­ri­tés de sur­veil­lan­ce du mar­ché peu­vent prend­re des mesu­res con­cer­nant tous les systè­mes d’in­for­ma­ti­on finan­ciè­re lorsqu’ils pré­sen­tent un ris­que con­for­mé­ment au pré­sent règle­ment. En rai­son de la natu­re spé­ci­fi­que des insti­tu­ti­ons, agen­ces et orga­nis­mes de l’U­ni­on rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règle­ment, il con­vi­ent de dési­gner le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées com­me auto­ri­té de sur­veil­lan­ce du mar­ché com­pé­ten­te pour eux. Cela dev­rait se fai­re sans pré­ju­di­ce de la dési­gna­ti­on d’au­to­ri­tés com­pé­ten­tes natio­na­les par les États mem­bres. Les acti­vi­tés de sur­veil­lan­ce du mar­ché ne dev­rai­ent pas affec­ter la capa­ci­té des enti­tés con­trôlées à s’ac­quit­ter de leurs tâches de maniè­re indé­pen­dan­te, lorsque cet­te indé­pen­dance est requi­se par le droit de l’Union.

2. Les États mem­bres com­mu­ni­quent à la Com­mis­si­on l’i­den­ti­té des auto­ri­tés de noti­fi­ca­ti­on et des auto­ri­tés de sur­veil­lan­ce du mar­ché et les tâches de ces auto­ri­tés, ain­si que tou­te modi­fi­ca­ti­on ulté­ri­eu­re de cel­les-ci. Les États mem­bres ren­dent publi­ques les infor­ma­ti­ons sur la maniè­re dont les auto­ri­tés com­pé­ten­tes et les guiche­ts uni­ques peu­vent être cont­ac­tés, par des moy­ens élec­tro­ni­ques, d’i­ci … [12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Les États mem­bres désign­ent une auto­ri­té de sur­veil­lan­ce du mar­ché pour agir en tant que point de cont­act uni­que pour le pré­sent règle­ment et noti­fi­ent à la Com­mis­si­on l’i­den­ti­té de ce point de cont­act uni­que. La Com­mis­si­on met à la dis­po­si­ti­on du public une liste des points de cont­act uniques.

3. Les États mem­bres veil­lent à ce que leurs auto­ri­tés natio­na­les com­pé­ten­tes dis­po­sent des res­sour­ces tech­ni­ques, finan­ciè­res et humain­es ain­si que de l’in­fras­truc­tu­re adé­qua­tes pour s’ac­quit­ter effi­ca­ce­ment de leurs tâches en ver­tu du pré­sent règle­ment. En par­ti­cu­lier, les auto­ri­tés natio­na­les com­pé­ten­tes doi­vent dis­po­ser en per­ma­nence d’un nombre suf­fi­sant de per­son­nel dont les com­pé­ten­ces et l’ex­per­ti­se doi­vent inclu­re une con­nais­sance appro­fon­die des tech­no­lo­gies IA, de l’in­for­ma­tique et des don­nées, de la pro­tec­tion des don­nées per­son­nel­les, de la cyber­sé­cu­ri­té, des droits fon­da­men­taux, des ris­ques pour la san­té et la sécu­ri­té, ain­si qu’u­ne con­nais­sance des nor­mes et des exi­gen­ces léga­les exi­stan­tes. Les États mem­bres éva­lu­ent et, le cas échéant, met­tent à jour sur une base annuel­le les com­pé­ten­ces et les res­sour­ces requi­ses men­ti­onnées dans le pré­sent paragraphe.

4. Les auto­ri­tés natio­na­les com­pé­ten­tes pren­nent les mesu­res appro­priées pour assurer un niveau de cyber­sé­cu­ri­té adéquat.

5. Dans l’e­xer­ci­ce de leurs fonc­tions, les auto­ri­tés natio­na­les com­pé­ten­tes agis­sent con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té pré­vues à l’ar­tic­le 78.

6. Au … [un an à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], et une fois tous les deux ans par la suite, les États mem­bres font rap­port à la Com­mis­si­on sur l’é­tat des res­sour­ces finan­ciè­res et humain­es des auto­ri­tés natio­na­les com­pé­ten­tes, avec une éva­lua­ti­on de leur adé­qua­ti­on. La Com­mis­si­on trans­met ces infor­ma­ti­ons au Con­seil pour dis­cus­sion et recom­man­da­ti­ons éventuelles.

7. La Com­mis­si­on faci­li­te l’é­ch­an­ge d’expé­ri­en­ces ent­re les auto­ri­tés natio­na­les compétentes.

8. Les auto­ri­tés natio­na­les com­pé­ten­tes peu­vent four­nir des ori­en­ta­ti­ons et des con­seils sur la mise en œuvre du pré­sent règle­ment, en par­ti­cu­lier aux PME, y com­pris aux jeu­nes pous­ses, en tenant comp­te, le cas échéant, des ori­en­ta­ti­ons et des con­seils du Con­seil et de la Com­mis­si­on. Chaque fois que les auto­ri­tés natio­na­les com­pé­ten­tes envis­agent de four­nir des con­seils et des avis sur un système d’assu­rance inva­li­di­té dans des domain­es cou­verts par une aut­re légis­la­ti­on de l’U­ni­on, les auto­ri­tés natio­na­les com­pé­ten­tes en ver­tu de cet­te légis­la­ti­on sont con­sul­tées, le cas échéant.

9. Lorsque les insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on ent­rent dans le champ d’ap­pli­ca­ti­on du pré­sent règle­ment, le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées agit en tant qu’­au­to­ri­té com­pé­ten­te pour leur contrôle.

(157) Le pré­sent règle­ment ne por­te pas att­ein­te aux com­pé­ten­ces, aux tâches, aux pou­voirs et à l’in­dé­pen­dance des auto­ri­tés ou des orga­nis­mes publics nati­on­aux com­pé­tents qui con­trô­lent l’ap­pli­ca­ti­on de la légis­la­ti­on de l’U­ni­on en matiè­re de pro­tec­tion des droits fon­da­men­taux, y com­pris les orga­nis­mes char­gés de l’é­ga­li­té et les auto­ri­tés char­gées de la pro­tec­tion des don­nées. Lorsque cela est néces­saire à leur man­dat, ces auto­ri­tés ou orga­nis­mes publics nati­on­aux dev­rai­ent éga­le­ment avoir accès à tou­te docu­men­ta­ti­on cré­ée en ver­tu du pré­sent règle­ment. Une pro­cé­du­re de sau­vegar­de spé­ci­fi­que dev­rait être mise en place pour garan­tir une appli­ca­ti­on adé­qua­te et rapi­de cont­re les systè­mes d’in­tel­li­gence arti­fi­ci­el­le pré­sen­tant un ris­que pour la san­té, la sécu­ri­té et les droits fon­da­men­taux. La pro­cé­du­re appli­ca­ble à ces systè­mes d’IA pré­sen­tant un ris­que dev­rait être appli­quée aux systè­mes d’IA à haut ris­que pré­sen­tant un ris­que, aux systè­mes inter­dits qui ont été mis sur le mar­ché, mis en ser­vice ou uti­li­sés en vio­la­ti­on des pra­ti­ques inter­di­tes énon­cées dans le pré­sent règle­ment et aux systè­mes d’IA qui ont été mis à dis­po­si­ti­on en vio­la­ti­on des exi­gen­ces de trans­pa­rence énon­cées dans le pré­sent règle­ment et qui pré­sen­tent un risque.

Artic­le 71 Base de don­nées de l’UE sur les systè­mes d’IA à haut ris­que énu­mé­rés à l’an­ne­xe III

1. La Com­mis­si­on, en coopé­ra­ti­on avec les États mem­bres, éta­blit et tient à jour une base de don­nées de l’U­ni­on euro­pé­en­ne con­tenant les infor­ma­ti­ons visées aux para­gra­phes 2 et 3 du pré­sent artic­le con­cer­nant les systè­mes d’assu­rance-inva­li­di­té à haut ris­que visés à l’ar­tic­le 6, para­gra­phe 2, qui sont enre­gi­strés con­for­mé­ment aux artic­les 49 et 60, et les systè­mes d’assu­rance-inva­li­di­té qui ne sont pas con­sidé­rés com­me à haut ris­que au sens de l’ar­tic­le 6, para­gra­phe 3, et qui sont enre­gi­strés con­for­mé­ment à l’ar­tic­le 6, para­gra­phe 4, et à l’ar­tic­le 49. Lors de l’é­ta­blis­se­ment des spé­ci­fi­ca­ti­ons fonc­tion­nel­les de cet­te base de don­nées, la Com­mis­si­on con­sul­te les experts con­cer­nés et, lors de la mise à jour des spé­ci­fi­ca­ti­ons fonc­tion­nel­les de cet­te base de don­nées, la Com­mis­si­on con­sul­te le Conseil.

2. Les don­nées énu­mé­rées aux sec­tions A et B de l’an­ne­xe VIII sont intro­dui­tes dans la base de don­nées de l’UE par le four­nis­seur ou, le cas échéant, par le repré­sen­tant autorisé.

3. Les don­nées énu­mé­rées à la sec­tion C de l’an­ne­xe VIII sont intro­dui­tes dans la base de don­nées de l’UE par le déclarant qui est, ou qui agit pour le comp­te d’u­ne auto­ri­té, d’u­ne agence ou d’un orga­nis­me public, con­for­mé­ment à l’ar­tic­le 49, para­gra­phes 3 et 4.

4. À l’ex­cep­ti­on de la sec­tion men­ti­onnée à l’ar­tic­le 49, para­gra­phe 4, et à l’ar­tic­le 60, para­gra­phe 4, point c), les infor­ma­ti­ons con­te­nues dans la base de don­nées de l’U­ni­on euro­pé­en­ne enre­gi­strée con­for­mé­ment à l’ar­tic­le 49 sont acce­s­si­bles et mises à la dis­po­si­ti­on du public d’u­ne maniè­re con­vi­via­le. Les infor­ma­ti­ons doi­vent être faci­le­ment navig­ab­les et lisi­bles par machi­ne. Les infor­ma­ti­ons enre­gi­strées con­for­mé­ment à l’ar­tic­le 60 ne sont acce­s­si­bles qu’aux auto­ri­tés de sur­veil­lan­ce du mar­ché et à la Com­mis­si­on, à moins que le four­nis­seur ou le pre­sta­tai­re poten­tiel n’ait don­né son accord pour que ces infor­ma­ti­ons soi­ent éga­le­ment acce­s­si­bles au public.

5. La base de don­nées de l’UE ne doit con­te­nir des don­nées à carac­tère per­son­nel que dans la mesu­re où elles sont néces­saires à la coll­ec­te et au trai­te­ment des infor­ma­ti­ons con­for­mé­ment au pré­sent règle­ment. Ces infor­ma­ti­ons com­pren­nent les noms et les coor­don­nées des per­son­nes phy­si­ques respons­ables de l’en­re­gi­stre­ment du système et ayant l’au­to­ri­té léga­le pour repré­sen­ter le four­nis­seur ou le déployeur, selon le cas.

6. La Com­mis­si­on doit être le con­trô­leur de la base de don­nées de l’UE. Elle doit mett­re à la dis­po­si­ti­on des four­nis­seurs, des four­nis­seurs poten­tiels et des déployeurs un sou­ti­en tech­ni­que et admi­ni­stra­tif appro­prié. La base de don­nées de l’U­ni­on euro­pé­en­ne doit être con­for­me aux exi­gen­ces appli­ca­bles en matiè­re d’accessibilité.

Cha­pit­re IX Par­ta­ge d’in­for­ma­ti­ons et sur­veil­lan­ce du mar­ché après la sur­veil­lan­ce du marché

Sec­tion 1 Sui­vi après la mise sur le marché

Artic­le 72 Sui­vi post-com­mer­cia­li­sa­ti­on par les four­nis­seurs et plan de sui­vi post-com­mer­cia­li­sa­ti­on pour les systè­mes d’IA à haut risque

1. Les four­nis­seurs doi­vent éta­b­lir et docu­men­ter un système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on d’u­ne maniè­re pro­por­ti­onnée à la natu­re des tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le et aux ris­ques du système d’in­tel­li­gence arti­fi­ci­el­le à haut risque.

2. Le système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on doit coll­ec­ter, docu­men­ter et ana­ly­ser acti­ve­ment et sys­té­ma­ti­quement les don­nées per­ti­nen­tes qui peu­vent être four­nies par les déployeurs ou qui peu­vent être recu­eil­lies par d’aut­res sources sur les per­for­man­ces des systè­mes d’IA à haut ris­que tout au long de leur durée de vie, et qui per­met­tent au four­nis­seur d’éva­luer la con­for­mi­té con­ti­n­ue des systè­mes d’IA aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2. Le cas échéant, la sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on doit inclu­re une ana­ly­se de l’in­ter­ac­tion avec d’aut­res systè­mes d’IA. Cet­te obli­ga­ti­on ne doit pas cou­vr­ir les don­nées opé­ra­ti­on­nel­les sen­si­bles des déployeurs qui sont des auto­ri­tés char­gées de fai­re respec­ter la loi.

3. Le système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on doit être fon­dé sur un plan de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on. Le plan de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on fait par­tie de la docu­men­ta­ti­on tech­ni­que visée à l’an­ne­xe IV. La Com­mis­si­on adop­te un acte de mise en œuvre fix­ant des dis­po­si­ti­ons détail­lées éta­blis­sant un modè­le pour le plan de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on et la liste des élé­ments à inclu­re dans ce plan d’i­ci … [18 mois après l’en­trée en vigueur du pré­sent règle­ment]. Cet acte d’exé­cu­ti­on est adop­té con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

4. Pour les systè­mes d’assu­rance-inva­li­di­té à haut ris­que cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on visée à la sec­tion A de l’an­ne­xe I, lorsqu’un système et un plan de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on sont déjà étab­lis en ver­tu de cet­te légis­la­ti­on, afin d’assurer la cohé­rence, d’é­vi­ter les dou­bles emplois et de rédui­re au mini­mum les char­ges sup­p­lé­men­tai­res, les four­nis­seurs ont le choix d’in­té­grer, le cas échéant, les élé­ments néces­saires décrits aux para­gra­phes 1, 2 et 3 dans les systè­mes et les plans déjà exi­stants en ver­tu de cet­te légis­la­ti­on, en uti­li­sant le modè­le visé au para­gra­phe 3, à con­di­ti­on que cela per­met­te d’att­eind­re un niveau de pro­tec­tion équivalent.

Le pre­mier ali­néa du pré­sent para­gra­phe s’ap­pli­que éga­le­ment aux systè­mes d’assu­rance-inva­li­di­té à haut ris­que visés au point 5 de l’an­ne­xe III qui sont mis sur le mar­ché ou mis en ser­vice par des éta­blis­se­ments finan­ciers sou­mis aux exi­gen­ces de la légis­la­ti­on de l’U­ni­on rela­ti­ve aux ser­vices finan­ciers en ce qui con­cer­ne leur gou­ver­nan­ce inter­ne, leurs dis­po­si­ti­ons ou leurs processus.

(155) Afin de garan­tir que les four­nis­seurs de systè­mes d’IA à haut ris­que pui­s­sent prend­re en comp­te l’expé­ri­ence acqui­se sur l’uti­li­sa­ti­on de systè­mes d’IA à haut ris­que pour amé­lio­rer leurs systè­mes et le pro­ce­s­sus de con­cep­ti­on et de déve­lo­p­pe­ment ou prend­re tou­te mesu­re cor­rec­ti­ve pos­si­ble en temps uti­le, tous les four­nis­seurs dev­rai­ent dis­po­ser d’un système de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on en place. Le cas échéant, la sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on dev­rait inclu­re une ana­ly­se de l’in­ter­ac­tion avec d’aut­res systè­mes IA, y com­pris d’aut­res dis­po­si­tifs et logi­ciels. La sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on ne doit pas cou­vr­ir les don­nées opé­ra­ti­on­nel­les sen­si­bles des déployeurs qui sont des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi. Ce système est éga­le­ment essen­tiel pour garan­tir que les ris­ques éven­tuels émer­geant des systè­mes IA qui con­ti­nuent à “app­rend­re” après avoir été pla­cés sur le mar­ché ou mis en ser­vice pui­s­sent être trai­tés plus effi­ca­ce­ment et en temps uti­le. Dans ce con­tex­te, les four­nis­seurs dev­rai­ent éga­le­ment être tenus d’a­voir un système en place pour signal­er aux auto­ri­tés com­pé­ten­tes tout inci­dent gra­ve résul­tant de l’uti­li­sa­ti­on de leurs systè­mes d’IA, notam­ment un inci­dent ou un dys­fonc­tion­ne­ment ayant ent­raî­né la mort ou de gra­ves dom­mages à la san­té, une per­tur­ba­ti­on gra­ve et irré­ver­si­ble de la gesti­on et du fonc­tion­ne­ment d’in­fras­truc­tures cri­ti­ques, des vio­la­ti­ons des obli­ga­ti­ons pré­vues par la légis­la­ti­on de l’U­ni­on euro­pé­en­ne en matiè­re de pro­tec­tion des droits fon­da­men­taux ou des dom­mages gra­ves aux biens ou à l’environnement.

Sec­tion 2 Par­ta­ge d’in­for­ma­ti­ons sur des inci­dents graves

Artic­le 73 Rap­ports d’in­ci­dents graves

1. Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que pla­cés sur le mar­ché de l’U­ni­on signalent tout inci­dent gra­ve aux auto­ri­tés de sur­veil­lan­ce du mar­ché des États mem­bres où cet inci­dent s’est produit.

2. Le rap­port visé au para­gra­phe 1 est éta­b­li immé­dia­te­ment après que le four­nis­seur a éta­b­li un lien de cau­sa­li­té ent­re le système d’assu­rance qua­li­té et l’in­ci­dent gra­ve ou la pro­ba­bi­li­té rai­sonnable d’un tel lien et, en tout état de cau­se, au plus tard 15 jours après que le four­nis­seur ou, le cas échéant, le délé­gué, a pris con­nais­sance de l’in­ci­dent grave.

La péri­ode de décla­ra­ti­on men­ti­onnée au pre­mier ali­néa doit tenir comp­te de la gra­vi­té de l’in­ci­dent grave.

3. Non­ob­stant le para­gra­phe 2 du pré­sent artic­le, en cas de vio­la­ti­on géné­ra­li­sée ou d’in­ci­dent gra­ve tel que défi­ni à l’ar­tic­le 3, point (49) (b), le rap­port visé au para­gra­phe 1 du pré­sent artic­le est four­ni immé­dia­te­ment et au plus tard deux jours après que le four­nis­seur ou, le cas échéant, le délé­gué a pris con­nais­sance de cet incident.

4. Non­ob­stant le para­gra­phe 2, en cas de décès d’u­ne per­son­ne, le rap­port est four­ni immé­dia­te­ment après que le pre­sta­tai­re ou le déployeur a éta­b­li, ou dès qu’il soup­çon­ne, un lien de cau­sa­li­té ent­re le système IA à haut ris­que et l’in­ci­dent gra­ve, mais pas plus tard que dix jours après la date à laquel­le le pre­sta­tai­re ou, le cas échéant, le déployeur a pris con­nais­sance de l’in­ci­dent grave.

5. Lorsque cela s’a­vè­re néces­saire pour assurer une noti­fi­ca­ti­on en temps uti­le, le four­nis­seur ou, le cas échéant, le déployeur, peut sou­mett­re un rap­port initi­al incom­plet sui­vi d’un rap­port complet.

6. Après la noti­fi­ca­ti­on d’un inci­dent gra­ve con­for­mé­ment au para­gra­phe 1, le pre­sta­tai­re procè­de, sans délai, aux inve­sti­ga­ti­ons néces­saires con­cer­nant l’in­ci­dent gra­ve et le système d’IA con­cer­né. Ces inve­sti­ga­ti­ons com­pren­nent une éva­lua­ti­on des ris­ques liés à l’in­ci­dent et des mesu­res correctives.

Le pre­sta­tai­re coopè­re avec les auto­ri­tés com­pé­ten­tes et, le cas échéant, avec l’or­ga­nis­me noti­fié con­cer­né, au cours des enquêtes men­ti­onnées au pre­mier ali­néa, et s’ab­sti­ent de mener tou­te enquête impli­quant une modi­fi­ca­ti­on du système d’alar­me socia­le con­cer­né d’u­ne maniè­re sus­cep­ti­ble d’af­fec­ter tou­te éva­lua­ti­on ulté­ri­eu­re des cau­ses de l’in­ci­dent avant d’in­for­mer les auto­ri­tés com­pé­ten­tes d’u­ne tel­le action.

7. Lorsqu’el­le reçoit une noti­fi­ca­ti­on rela­ti­ve à un inci­dent gra­ve visé à l’ar­tic­le 3, point (49)(c), l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­cer­née infor­me les auto­ri­tés publi­ques natio­na­les ou les orga­nis­mes visés à l’ar­tic­le 77(1). La Com­mis­si­on éla­bo­re des ori­en­ta­ti­ons spé­ci­fi­ques pour faci­li­ter le respect des obli­ga­ti­ons énon­cées au para­gra­phe 1 du pré­sent artic­le. Ces ori­en­ta­ti­ons sont publiées au plus tard le … [12 mois après l’en­trée en vigueur du pré­sent règle­ment] et font l’ob­jet d’u­ne éva­lua­ti­on régulière.

8. L’au­to­ri­té de sur­veil­lan­ce du mar­ché prend les mesu­res appro­priées pré­vues à l’ar­tic­le 19 du règle­ment (UE) 2019/1020 dans un délai de sept jours à comp­ter de la date à laquel­le elle a reçu la noti­fi­ca­ti­on visée au para­gra­phe 1 du pré­sent artic­le, et suit les pro­cé­du­res de noti­fi­ca­ti­on pré­vues par ledit règlement.

9. Pour les systè­mes d’au­then­ti­fi­ca­ti­on à haut ris­que visés à l’an­ne­xe III qui sont mis sur le mar­ché ou mis en ser­vice par des four­nis­seurs sou­mis à des instru­ments légis­la­tifs de l’U­ni­on impo­sant des obli­ga­ti­ons de décla­ra­ti­on équi­va­len­tes à cel­les pré­vues par le pré­sent règle­ment , la noti­fi­ca­ti­on des inci­dents gra­ves est limi­tée à ceux visés à l’ar­tic­le 3, point (49)(c).

10. Pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont des com­po­sants de sécu­ri­té de dis­po­si­tifs, ou qui sont eux-mêmes des dis­po­si­tifs, cou­verts par les règle­ments (UE) 2017/745 et (UE) 2017/746, la noti­fi­ca­ti­on des inci­dents gra­ves est limi­tée à ceux visés à l’ar­tic­le 3, point (49)(c), du pré­sent règle­ment et est fai­te à l’au­to­ri­té natio­na­le com­pé­ten­te choi­sie à cet­te fin par les États mem­bres où l’in­ci­dent s’est produit.

11. Les auto­ri­tés natio­na­les com­pé­ten­tes noti­fi­ent immé­dia­te­ment à la Com­mis­si­on tout inci­dent gra­ve, qu’el­les aient ou non pris des mesu­res à son égard, con­for­mé­ment à l’ar­tic­le 20 du règle­ment (UE) 2019/1020.

Sec­tion 3 Appli­ca­ti­on de la loi

Artic­le 74 Sur­veil­lan­ce du mar­ché et con­trô­le des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sur le mar­ché de l’Union

1. Le règle­ment (UE) 2019/1020 s’ap­pli­que aux systè­mes d’assu­rance inva­li­di­té cou­verts par le pré­sent règle­ment. Aux fins de l’ap­pli­ca­ti­on effec­ti­ve du pré­sent règlement :

(a) tou­te réfé­rence à un opé­ra­teur éco­no­mi­que au tit­re du règle­ment (UE) 2019/1020 s’en­tend com­me inclu­ant tous les opé­ra­teurs iden­ti­fi­és à l’ar­tic­le 2, para­gra­phe 1, du pré­sent règlement ;

(b) tou­te réfé­rence à un pro­duit au tit­re du règle­ment (UE) 2019/1020 s’en­tend com­me inclu­ant tous les systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règlement.

2. Dans le cad­re de leurs obli­ga­ti­ons d’in­for­ma­ti­on en ver­tu de l’ar­tic­le 34, para­gra­phe 4, du règle­ment (UE) 2019/1020, les auto­ri­tés de sur­veil­lan­ce du mar­ché font rap­port chaque année à la Com­mis­si­on et aux auto­ri­tés natio­na­les com­pé­ten­tes en matiè­re de con­cur­rence sur tou­te infor­ma­ti­on iden­ti­fi­ée au cours de leurs acti­vi­tés de sur­veil­lan­ce du mar­ché qui pour­rait pré­sen­ter un inté­rêt poten­tiel pour l’ap­pli­ca­ti­on du droit de l’U­ni­on rela­tif aux règles de con­cur­rence. Elles font éga­le­ment rap­port chaque année à la Com­mis­si­on sur l’uti­li­sa­ti­on de pra­ti­ques inter­di­tes au cours de l’an­née en que­sti­on et sur les mesu­res prises.

3. Pour les systè­mes d’IA à haut ris­que rela­tifs aux pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à la sec­tion A de l’an­ne­xe I, l’au­to­ri­té de sur­veil­lan­ce du mar­ché aux fins du pré­sent règle­ment est l’au­to­ri­té responsable des acti­vi­tés de sur­veil­lan­ce du mar­ché dési­gnée en ver­tu de ces actes législatifs.

Par déro­ga­ti­on au pre­mier ali­néa, et dans des cir­con­stances appro­priées, les États mem­bres peu­vent dési­gner une aut­re auto­ri­té com­pé­ten­te pour agir en tant qu’­au­to­ri­té de sur­veil­lan­ce du mar­ché, à con­di­ti­on qu’ils assu­rent la coor­di­na­ti­on avec les auto­ri­tés sec­to­ri­el­les de sur­veil­lan­ce du mar­ché con­cer­nées char­gées de l’ap­pli­ca­ti­on de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I.

4. Les pro­cé­du­res visées aux artic­les 79 à 83 du pré­sent règle­ment ne s’ap­pli­quent pas aux systè­mes d’assu­rance inva­li­di­té rela­tifs aux pro­duits cou­verts par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à la sec­tion A de l’an­ne­xe I, lorsque ces actes légis­la­tifs pré­voi­ent déjà des pro­cé­du­res garan­tis­sant un niveau de pro­tec­tion équi­va­lent et pour­suivant le même objec­tif. Dans de tels cas, les pro­cé­du­res sec­to­ri­el­les per­ti­nen­tes s’ap­pli­quent à la place.

5. Sans pré­ju­di­ce des pou­voirs des auto­ri­tés de sur­veil­lan­ce du mar­ché visés à l’ar­tic­le 14 du règle­ment (UE) 2019/1020, dans le but d’assurer l’ap­pli­ca­ti­on effec­ti­ve du pré­sent règle­ment, les auto­ri­tés de sur­veil­lan­ce du mar­ché peu­vent exer­cer à distance, le cas échéant, les pou­voirs visés à l’ar­tic­le 14, para­gra­phe 4, points (d) et (j), dudit règlement.

6. Pour les systè­mes d’in­for­ma­ti­on finan­ciè­re à haut ris­que pla­cés sur le mar­ché, mis en ser­vice ou uti­li­sés par des éta­blis­se­ments finan­ciers régis par la légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers, l’au­to­ri­té de sur­veil­lan­ce du mar­ché aux fins du pré­sent règle­ment est l’au­to­ri­té natio­na­le com­pé­ten­te char­gée de la sur­veil­lan­ce finan­ciè­re de ces éta­blis­se­ments en ver­tu de cet­te légis­la­ti­on, dans la mesu­re où le pla­ce­ment sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on du système d’in­for­ma­ti­on finan­ciè­re est direc­te­ment lié à la four­ni­tu­re de ces ser­vices financiers.

(157) Le pré­sent règle­ment ne por­te pas att­ein­te aux com­pé­ten­ces, aux tâches, aux pou­voirs et à l’in­dé­pen­dance des auto­ri­tés ou des orga­nis­mes publics nati­on­aux com­pé­tents qui con­trô­lent l’ap­pli­ca­ti­on de la légis­la­ti­on de l’U­ni­on en matiè­re de pro­tec­tion des droits fon­da­men­taux, y com­pris les orga­nis­mes char­gés de l’é­ga­li­té et les auto­ri­tés char­gées de la pro­tec­tion des don­nées. Lorsque cela est néces­saire à leur man­dat, ces auto­ri­tés ou orga­nis­mes publics nati­on­aux dev­rai­ent éga­le­ment avoir accès à tou­te docu­men­ta­ti­on cré­ée en ver­tu du pré­sent règle­ment. Une pro­cé­du­re de sau­vegar­de spé­ci­fi­que dev­rait être mise en place pour garan­tir une appli­ca­ti­on adé­qua­te et rapi­de cont­re les systè­mes d’in­tel­li­gence arti­fi­ci­el­le pré­sen­tant un ris­que pour la san­té, la sécu­ri­té et les droits fon­da­men­taux. La pro­cé­du­re appli­ca­ble à ces systè­mes d’IA pré­sen­tant un ris­que dev­rait être appli­quée aux systè­mes d’IA à haut ris­que pré­sen­tant un ris­que, aux systè­mes inter­dits qui ont été mis sur le mar­ché, mis en ser­vice ou uti­li­sés en vio­la­ti­on des pra­ti­ques inter­di­tes énon­cées dans le pré­sent règle­ment et aux systè­mes d’IA qui ont été mis à dis­po­si­ti­on en vio­la­ti­on des exi­gen­ces de trans­pa­rence énon­cées dans le pré­sent règle­ment et qui pré­sen­tent un risque.

(158) La légis­la­ti­on de l’U­ni­on sur les ser­vices finan­ciers com­prend des règles et des exi­gen­ces en matiè­re de gou­ver­nan­ce inter­ne et de gesti­on des ris­ques qui sont appli­ca­bles aux éta­blis­se­ments finan­ciers régle­men­tés dans le cad­re de la four­ni­tu­re de ces ser­vices, y com­pris lorsqu’ils uti­li­sent des systè­mes d’in­for­ma­ti­on finan­ciè­re. Afin d’assurer une appli­ca­ti­on et une exé­cu­ti­on cohé­ren­tes des obli­ga­ti­ons pré­vues par le pré­sent règle­ment et des règles et exi­gen­ces per­ti­nen­tes des actes juri­di­ques de l’U­ni­on rela­tifs aux ser­vices finan­ciers, les auto­ri­tés com­pé­ten­tes pour la sur­veil­lan­ce et l’exé­cu­ti­on de ces actes juri­di­ques, en par­ti­cu­lier les auto­ri­tés com­pé­ten­tes tel­les que défi­nies dans le règle­ment (UE) n° 575/2013 du Par­le­ment euro­pé­en et du Conseil46 et les direc­ti­ves 2008/48/CE47, 2009/138/CE48, 2013/36/UE49, 2014/17/UE50 et (UE) 2016/9751 du Par­le­ment euro­pé­en et du Con­seil, dev­rai­ent être dési­gnées, dans le cad­re de leurs com­pé­ten­ces respec­ti­ves, com­me auto­ri­tés com­pé­ten­tes aux fins du con­trô­le de l’ap­pli­ca­ti­on du pré­sent règle­ment, y com­pris pour les acti­vi­tés de sur­veil­lan­ce du mar­ché, en ce qui con­cer­ne les systè­mes d’IA four­nis ou uti­li­sés par des éta­blis­se­ments finan­ciers régle­men­tés et con­trôlés, à moins que les États mem­bres ne déci­dent de dési­gner une aut­re auto­ri­té pour s’ac­quit­ter de ces tâches de sur­veil­lan­ce du marché.

Ces auto­ri­tés com­pé­ten­tes dev­rai­ent dis­po­ser de tous les pou­voirs pré­vus par le pré­sent règle­ment et par le règle­ment (UE) 2019/1020 pour appli­quer les exi­gen­ces et les obli­ga­ti­ons pré­vues par le pré­sent règle­ment, y com­pris pour mener des acti­vi­tés de sur­veil­lan­ce du mar­ché ex post qui peu­vent, le cas échéant, être inté­g­rées dans leurs méca­nis­mes et pro­cé­du­res de sur­veil­lan­ce exi­stants en ver­tu de la légis­la­ti­on per­ti­nen­te de l’U­ni­on en matiè­re de ser­vices finan­ciers. Il con­vi­ent d’en­vi­sa­ger que, lorsqu’el­les agis­sent en tant qu’­au­to­ri­tés de sur­veil­lan­ce du mar­ché en ver­tu du pré­sent règle­ment, les auto­ri­tés natio­na­les char­gées de la sur­veil­lan­ce des éta­blis­se­ments de cré­dit régis par la direc­ti­ve 2013/36/UE qui par­ti­ci­pent au méca­nis­me de sur­veil­lan­ce uni­que éta­b­li par le règle­ment du Con­seil (UE) n° 1024/2013 , com­mu­ni­quent sans délai à la Ban­que cen­tra­le euro­pé­en­ne tou­te infor­ma­ti­on iden­ti­fi­ée au cours de leurs acti­vi­tés de sur­veil­lan­ce du mar­ché qui pour­rait pré­sen­ter un inté­rêt poten­tiel pour les mis­si­ons de sur­veil­lan­ce pru­den­ti­el­le de la Ban­que cen­tra­le euro­pé­en­ne tel­les que défi­nies dans ledit règlement.

Afin de ren­forcer enco­re la cohé­rence ent­re le pré­sent règle­ment et les règles appli­ca­bles aux éta­blis­se­ments de cré­dit régis par la direc­ti­ve 2013/36/UE, il est éga­le­ment appro­prié d’in­té­grer cer­tai­nes des obli­ga­ti­ons pro­cé­du­ra­les des pre­sta­tai­res en matiè­re de gesti­on des ris­ques, de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on et de docu­men­ta­ti­on dans les obli­ga­ti­ons et pro­cé­du­res exi­stan­tes au tit­re de la direc­ti­ve 2013/36/UE. Afin d’é­vi­ter les chevau­che­ments, des déro­ga­ti­ons limi­tées dev­rai­ent éga­le­ment être envi­sa­gées en ce qui con­cer­ne le système de gesti­on de la qua­li­té des pre­sta­tai­res et l’ob­li­ga­ti­on de sur­veil­lan­ce impo­sée aux four­nis­seurs de systè­mes d’IA à haut ris­que, dans la mesu­re où ceux-ci s’ap­pli­quent aux éta­blis­se­ments de cré­dit régis par la direc­ti­ve 2013/36/UE. Le même régime dev­rait s’ap­pli­quer aux com­pa­gnies d’assu­rance et de réassu­rance et aux socié­tés hol­ding d’assu­rance visées par la direc­ti­ve 2009/138/CE et aux inter­mé­di­ai­res d’assu­rance visés par la direc­ti­ve (UE) 2016/97, ain­si qu’à d’aut­res types d’in­sti­tu­ti­ons finan­ciè­res sou­mi­ses à des exi­gen­ces en matiè­re de gou­ver­nan­ce inter­ne, d’ar­ran­ge­ments ou de pro­cé­du­res éta­b­lies con­for­mé­ment à la légis­la­ti­on per­ti­nen­te de l’U­ni­on en matiè­re de ser­vices finan­ciers, afin de garan­tir la cohé­rence et l’é­ga­li­té de trai­te­ment dans le sec­teur financier.

7. Par déro­ga­ti­on au para­gra­phe 6, dans des cir­con­stances appro­priées et pour autant que la coor­di­na­ti­on soit assu­rée, une aut­re auto­ri­té com­pé­ten­te peut être dési­gnée par l’É­tat membre com­me auto­ri­té de sur­veil­lan­ce du mar­ché aux fins du pré­sent règlement.

Les auto­ri­tés natio­na­les de sur­veil­lan­ce du mar­ché qui super­vi­sent des éta­blis­se­ments de cré­dit régle­men­tés régis par la direc­ti­ve 2013/36/UE et qui par­ti­ci­pent au méca­nis­me de sur­veil­lan­ce uni­que éta­b­li par le règle­ment (UE) no 1024/2013 doi­vent com­mu­ni­quer sans délai à la Ban­que cen­tra­le euro­pé­en­ne tou­te infor­ma­ti­on iden­ti­fi­ée dans le cad­re de leurs acti­vi­tés de sur­veil­lan­ce du mar­ché qui pour­rait pré­sen­ter un inté­rêt poten­tiel pour les tâches de sur­veil­lan­ce pru­den­ti­el­le de la Ban­que cen­tra­le euro­pé­en­ne tel­les que défi­nies dans ledit règlement.

8. Pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que énu­mé­rés au point 1 de l’an­ne­xe III du pré­sent règle­ment, dans la mesu­re où ces systè­mes sont uti­li­sés à des fins d’ap­pli­ca­ti­on de la loi, de gesti­on des fron­tiè­res et de justi­ce et de démo­cra­tie, et pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que énu­mé­rés aux points 6, 7 et 8 de l’an­ne­xe III du pré­sent règle­ment, les États mem­bres désign­ent com­me auto­ri­tés de sur­veil­lan­ce du mar­ché aux fins du pré­sent règle­ment soit les auto­ri­tés com­pé­ten­tes en matiè­re de pro­tec­tion des don­nées en ver­tu du règle­ment (UE) 2016/679 ou de la direc­ti­ve (UE) 2016/680, soit tou­te aut­re auto­ri­té dési­gnée selon les mêmes con­di­ti­ons énon­cées aux artic­les 41 à 44 de la direc­ti­ve (UE) 2016/680. Les acti­vi­tés de sur­veil­lan­ce du mar­ché ne doi­vent en aucun cas affec­ter l’in­dé­pen­dance des auto­ri­tés judi­ciai­res ou inter­fé­rer de quel­que maniè­re que ce soit avec leurs acti­vi­tés lorsqu’el­les agis­sent dans leur capa­ci­té judiciaire.

(159) Chaque auto­ri­té de sur­veil­lan­ce du mar­ché des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que dans le domaine de la bio­mé­trie, tels qu’é­nu­mé­rés dans une anne­xe au pré­sent règle­ment, dans la mesu­re où ces systè­mes sont uti­li­sés à des fins d’ap­pli­ca­ti­on de la loi, de gesti­on des migra­ti­ons, de l’a­si­le et du con­trô­le des fron­tiè­res, ou d’ad­mi­ni­stra­ti­on de la justi­ce et des pro­ce­s­sus démo­cra­ti­ques, dev­rait dis­po­ser de pou­voirs effec­tifs d’in­ve­sti­ga­ti­on et de cor­rec­tion, y com­pris, au moins, du pou­voir d’ac­cé­der à tou­tes les don­nées à carac­tère per­son­nel en cours de trai­te­ment et à tou­tes les infor­ma­ti­ons néces­saires à l’ac­com­plis­se­ment de ses tâches. Les auto­ri­tés de sur­veil­lan­ce du mar­ché dev­rai­ent être en mesu­re d’e­xer­cer leurs pou­voirs en tou­te indé­pen­dance. Tou­te limi­ta­ti­on de leur accès à des don­nées opé­ra­ti­on­nel­les sen­si­bles en ver­tu du pré­sent règle­ment dev­rait être sans pré­ju­di­ce des pou­voirs qui leur sont con­fé­rés par la direc­ti­ve (UE) 2016/680. Aucu­ne exclu­si­on de la divul­ga­ti­on de don­nées aux auto­ri­tés natio­na­les char­gées de la pro­tec­tion des don­nées en ver­tu du pré­sent règle­ment ne dev­rait affec­ter les pou­voirs actuels ou futurs de ces auto­ri­tés au-delà du champ d’ap­pli­ca­ti­on du pré­sent règlement.

9. Lorsque les insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on ent­rent dans le champ d’ap­pli­ca­ti­on du pré­sent règle­ment, le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées agit en tant qu’­au­to­ri­té de sur­veil­lan­ce du mar­ché, sauf en ce qui con­cer­ne la Cour de justi­ce de l’U­ni­on euro­pé­en­ne agis­sant dans le cad­re de sa com­pé­tence judiciaire.

10. Les États mem­bres faci­li­tent la coor­di­na­ti­on ent­re les auto­ri­tés de sur­veil­lan­ce du mar­ché dési­gnées en ver­tu du pré­sent règle­ment et les aut­res auto­ri­tés ou orga­nis­mes nati­on­aux com­pé­tents char­gés de con­trô­ler l’ap­pli­ca­ti­on de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I ou de tou­te aut­re légis­la­ti­on de l’U­ni­on sus­cep­ti­ble d’êt­re per­ti­nen­te pour les systè­mes d’assu­rance-inva­li­di­té à haut ris­que visés à l’an­ne­xe III.

11. Les auto­ri­tés de sur­veil­lan­ce du mar­ché et la Com­mis­si­on peu­vent pro­po­ser des acti­vi­tés con­join­tes, y com­pris des enquêtes con­join­tes, à mener par les auto­ri­tés de sur­veil­lan­ce du mar­ché ou par les auto­ri­tés de sur­veil­lan­ce du mar­ché con­join­te­ment avec la Com­mis­si­on, dans le but de pro­mou­voir la con­for­mi­té, d’i­den­ti­fier les cas de non-con­for­mi­té, de détec­ter les cas de non-con­for­mi­té ou de four­nir des ori­en­ta­ti­ons en ce qui con­cer­ne le pré­sent règle­ment pour des caté­go­ries spé­ci­fi­ques de systè­mes d’in­for­ma­ti­on finan­ciè­re à haut ris­que qui sont con­sidé­rés com­me pré­sen­tant un ris­que sérieux dans deux États mem­bres ou plus, con­for­mé­ment à l’ar­tic­le 9 du règle­ment (UE) 2019/1020. Le Bureau de l’in­for­ma­ti­on finan­ciè­re four­nit un sou­ti­en à la coor­di­na­ti­on des enquêtes conjointes.

(160) Les auto­ri­tés de sur­veil­lan­ce du mar­ché et la Com­mis­si­on dev­rai­ent pou­voir pro­po­ser des acti­vi­tés con­join­tes, y com­pris des enquêtes con­join­tes, à mener par les auto­ri­tés de sur­veil­lan­ce du mar­ché ou par les auto­ri­tés de sur­veil­lan­ce du mar­ché con­join­te­ment avec la Com­mis­si­on, dans le but de pro­mou­voir la con­for­mi­té, d’i­den­ti­fier les cas de non-con­for­mi­té, de mett­re en évi­dence les cas de non-con­for­mi­té et de four­nir des ori­en­ta­ti­ons en rap­port avec le pré­sent règle­ment en ce qui con­cer­ne des caté­go­ries spé­ci­fi­ques de systè­mes d’in­for­ma­ti­on finan­ciè­re à haut ris­que qui se révè­lent pré­sen­ter un ris­que gra­ve dans deux États mem­bres ou plus. Les acti­vi­tés con­join­tes de pro­mo­ti­on de la con­for­mi­té dev­rai­ent être menées con­for­mé­ment à l’ar­tic­le 9 du règle­ment (UE) 2019/1020. L’AI Office dev­rait four­nir un sou­ti­en à la coor­di­na­ti­on des enquêtes conjointes.

12. Sans pré­ju­di­ce des pou­voirs pré­vus par le règle­ment (UE) 2019/1020 et, le cas échéant, dans la limi­te de ce qui est néces­saire à l’ac­com­plis­se­ment de leurs tâches, les auto­ri­tés de sur­veil­lan­ce du mar­ché doi­vent avoir plei­ne­ment accès, de la part des four­nis­seurs, à la docu­men­ta­ti­on ain­si qu’à l’en­sem­ble des don­nées de for­ma­ti­on, de vali­da­ti­on et de test uti­li­sées pour le déve­lo­p­pe­ment de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, y com­pris, le cas échéant et sous réser­ve de garan­ties de sécu­ri­té, par le biais d’in­ter­faces de pro­gram­ma­ti­on d’ap­pli­ca­ti­ons (API) ou d’aut­res moy­ens et outils tech­ni­ques per­tin­ents per­met­tant un accès à distance.

13. Les auto­ri­tés de sur­veil­lan­ce du mar­ché doi­vent être auto­ri­sées à accé­der au code source du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sur deman­de moti­vée et uni­quement si les deux con­di­ti­ons sui­van­tes sont remplies :

(a) l’ac­cès au code source est néces­saire pour éva­luer la con­for­mi­té d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que avec les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2 ; et,

(b) les pro­cé­du­res de test ou d’au­dit et les véri­fi­ca­ti­ons basées sur les don­nées et la docu­men­ta­ti­on four­nies par le four­nis­seur ont été épui­sées ou se sont révé­lées insuffisantes.

14. Tou­te infor­ma­ti­on ou docu­men­ta­ti­on obte­nue par les auto­ri­tés de sur­veil­lan­ce du mar­ché est trai­tée con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té énon­cées à l’ar­tic­le 78.

Artic­le 75 Assi­stance mutu­el­le, sur­veil­lan­ce du mar­ché et con­trô­le des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à usa­ge général

1. Lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le est basé sur un modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral et que le modè­le et le système sont déve­lo­p­pés par le même four­nis­seur, l’AI Office doit avoir le pou­voir de con­trô­ler et de super­vi­ser la con­for­mi­té de ce système d’in­tel­li­gence arti­fi­ci­el­le aux obli­ga­ti­ons pré­vues par le pré­sent règle­ment. Pour s’ac­quit­ter de ses tâches de sui­vi et de con­trô­le, l’AI Office dis­po­se de tous les pou­voirs d’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché pré­vus par la pré­sen­te sec­tion et le règle­ment (UE) 2019/1020.

(162) Afin de tirer le meil­leur par­ti de l’ex­per­ti­se cen­tra­li­sée de l’U­ni­on et des syn­er­gies au niveau de l’U­ni­on, le pou­voir de con­trô­le et d’exé­cu­ti­on des obli­ga­ti­ons sur les four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rait être une com­pé­tence de la Com­mis­si­on. L’Of­fice AI dev­rait être en mesu­re d’entre­prend­re tou­tes les actions néces­saires pour con­trô­ler la mise en œuvre effec­ti­ve du pré­sent règle­ment en ce qui con­cer­ne les modè­les d’IA à usa­ge géné­ral. Il dev­rait être en mesu­re d’en­quêter sur d’é­ven­tu­el­les infrac­tions aux règles appli­ca­bles aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral, soit de sa pro­pre initia­ti­ve, soit à la suite des résul­tats de ses acti­vi­tés de sur­veil­lan­ce, soit à la deman­de des auto­ri­tés de sur­veil­lan­ce du mar­ché, con­for­mé­ment aux con­di­ti­ons fixées dans le pré­sent règle­ment. Afin de sou­te­nir un con­trô­le effi­cace de l’AI Office, celui-ci dev­rait pré­voir la pos­si­bi­li­té pour les four­nis­seurs en aval de dépo­ser des plain­tes con­cer­nant d’é­ven­tu­el­les infrac­tions aux règles appli­ca­bles aux four­nis­seurs de modè­les et de systè­mes d’IA à usa­ge général.

(164) L’AI Office dev­rait être en mesu­re de prend­re les mesu­res néces­saires pour con­trô­ler la mise en œuvre effec­ti­ve et le respect des obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral par le pré­sent règle­ment. L’AI Office dev­rait être en mesu­re d’en­quêter sur d’é­ven­tu­el­les infrac­tions con­for­mé­ment aux pou­voirs pré­vus par le pré­sent règle­ment, notam­ment en deman­dant de la docu­men­ta­ti­on et des infor­ma­ti­ons, en pro­cé­dant à des éva­lua­tions, ain­si qu’en deman­dant aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral de prend­re des mesu­res. Lors de la réa­li­sa­ti­on d’éva­lua­tions, afin de béné­fi­ci­er d’u­ne exper­ti­se indé­pen­dan­te, l’AI Office dev­rait être en mesu­re de fai­re appel à des experts indé­pen­dants pour effec­tuer les éva­lua­tions en son nom. Le respect des obli­ga­ti­ons dev­rait être exé­cuta­ble, ent­re aut­res, par des deman­des de pri­se de mesu­res appro­priées, y com­pris des mesu­res d’at­té­nua­ti­on des ris­ques en cas de ris­ques sys­té­mi­ques iden­ti­fi­és ain­si que par la rest­ric­tion de la mise à dis­po­si­ti­on sur le mar­ché, le retrait ou le rap­pel du modè­le. En tant que garan­tie, si néces­saire au-delà des droits pro­cé­du­raux pré­vus par le pré­sent règle­ment, les four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rai­ent dis­po­ser des droits pro­cé­du­raux pré­vus à l’ar­tic­le 18 du règle­ment (UE) 2019/1020, qui dev­rai­ent s’ap­pli­quer muta­tis mut­an­dis, sans pré­ju­di­ce des droits pro­cé­du­raux plus spé­ci­fi­ques pré­vus par le pré­sent règlement.

2. Lorsque les auto­ri­tés de sur­veil­lan­ce du mar­ché con­cer­nées ont des rai­sons suf­fi­san­tes de con­sidé­rer que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral qui peu­vent être uti­li­sés direc­te­ment par les déployeurs pour au moins une fina­li­té clas­sée à haut ris­que con­for­mé­ment au pré­sent règle­ment ne sont pas con­for­mes aux exi­gen­ces énon­cées dans le pré­sent règle­ment, elles coopè­rent avec l’AI Office pour effec­tuer des éva­lua­tions de con­for­mi­té et infor­ment le Con­seil et les aut­res auto­ri­tés de sur­veil­lan­ce du mar­ché en conséquence.

3. Lorsqu’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché n’est pas en mesu­re de con­clu­re son enquête sur le système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que en rai­son de son impos­si­bi­li­té d’ac­cé­der à cer­tai­nes infor­ma­ti­ons rela­ti­ves au modè­le d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral, après avoir déployé tous les efforts rai­sonn­ables pour obte­nir ces infor­ma­ti­ons, elle peut sou­mett­re une deman­de moti­vée à l’AI Office, par laquel­le l’ac­cès à ces infor­ma­ti­ons sera exi­gé. Dans ce cas, l’AI Office doit four­nir à l’au­to­ri­té requé­ran­te, sans délai et en tout état de cau­se dans les 30 jours, tou­te infor­ma­ti­on que l’AI Office juge per­ti­nen­te pour éta­b­lir si un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que est non con­for­me. Les auto­ri­tés de sur­veil­lan­ce du mar­ché pré­ser­vent la con­fi­den­tia­li­té des infor­ma­ti­ons qu’el­les obti­en­nent con­for­mé­ment à l’ar­tic­le 78 du pré­sent règle­ment. La pro­cé­du­re pré­vue au cha­pit­re VI du règle­ment (UE) 2019/1020 s’ap­pli­que muta­tis mutandis.

(161) Il est néces­saire de cla­ri­fier les responsa­bi­li­tés et les com­pé­ten­ces au niveau de l’U­ni­on et au niveau natio­nal en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le basés sur des modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral. Afin d’é­vi­ter le chevau­che­ment des com­pé­ten­ces, lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le est basé sur un modè­le d’in­tel­li­gence arti­fi­ci­el­le géné­ri­que et que le modè­le et le système sont four­nis par le même four­nis­seur, la super­vi­si­on dev­rait avoir lieu au niveau de l’U­ni­on par l’in­ter­mé­di­ai­re de l’AI Office, qui dev­rait avoir les com­pé­ten­ces d’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché au sens du règle­ment (UE) 2019/1020 à cet­te fin. Dans tous les aut­res cas, les auto­ri­tés natio­na­les de sur­veil­lan­ce du mar­ché restent respons­ables de la sur­veil­lan­ce des systè­mes d’IA. Tou­te­fois, pour les systè­mes d’IA à usa­ge géné­ral qui peu­vent être uti­li­sés direc­te­ment par les déployeurs pour au moins un usa­ge clas­sé à haut ris­que, les auto­ri­tés de sur­veil­lan­ce du mar­ché dev­rai­ent coopé­rer avec l’AI Office pour effec­tuer des éva­lua­tions de con­for­mi­té et infor­mer le Con­seil et les aut­res auto­ri­tés de sur­veil­lan­ce du mar­ché en con­sé­quence. En out­re, les auto­ri­tés de sur­veil­lan­ce du mar­ché dev­rai­ent pou­voir deman­der l’as­si­stance de l’AI Office lorsque l’au­to­ri­té de sur­veil­lan­ce du mar­ché n’est pas en mesu­re de con­clu­re une enquête sur un système d’IA à haut ris­que en rai­son de son impos­si­bi­li­té d’ac­cé­der à cer­tai­nes infor­ma­ti­ons rela­ti­ves au modè­le d’IA à usa­ge géné­ral sur lequel le système d’IA à haut ris­que est con­struit. Dans de tels cas, la pro­cé­du­re rela­ti­ve à l’as­si­stance mutu­el­le dans les affai­res trans­fron­ta­liè­res pré­vue au cha­pit­re VI du règle­ment (UE) 2019/1020 dev­rait s’ap­pli­quer muta­tis mutandis.

Artic­le 76 Super­vi­si­on des essais en con­di­ti­ons réel­les par les auto­ri­tés de sur­veil­lan­ce du marché

1. Les auto­ri­tés de sur­veil­lan­ce du mar­ché doi­vent avoir les com­pé­ten­ces et les pou­voirs néces­saires pour s’assurer que les tests effec­tués dans les con­di­ti­ons réel­les du mar­ché sont con­for­mes au pré­sent règlement.

2. Lorsque des tests en situa­ti­on réel­le sont effec­tués pour des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont con­trôlés dans un cad­re régle­men­tai­re d’in­tel­li­gence arti­fi­ci­el­le au sens de l’ar­tic­le 58, les auto­ri­tés de sur­veil­lan­ce du mar­ché véri­fi­ent le respect de l’ar­tic­le 60 dans le cad­re de leur rôle de sur­veil­lan­ce du cad­re régle­men­tai­re d’in­tel­li­gence arti­fi­ci­el­le. Ces auto­ri­tés peu­vent, le cas échéant, per­mett­re que le test en con­di­ti­ons réel­les soit effec­tué par le four­nis­seur ou le four­nis­seur poten­tiel, par déro­ga­ti­on aux con­di­ti­ons énon­cées à l’ar­tic­le 60(4), points (f) et (g).

3. Lorsqu’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché a été infor­mée par le four­nis­seur poten­tiel, le four­nis­seur ou un tiers d’un inci­dent gra­ve ou a d’aut­res rai­sons de pen­ser que les con­di­ti­ons énon­cées aux artic­les 60 et 61 ne sont pas rem­plies, elle peut prend­re l’u­ne ou l’aut­re des décis­i­ons sui­van­tes sur son ter­ri­toire, selon le cas :

(a) de sus­pend­re ou d’in­ter­romp­re le test dans des con­di­ti­ons réelles ;

(b) d’e­xi­ger du four­nis­seur ou du four­nis­seur poten­tiel et du déployeur ou du déployeur poten­tiel qu’ils modi­fi­ent tout aspect du test dans les con­di­ti­ons du mon­de réel.

4. Lorsqu’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché a pris une décis­i­on visée au para­gra­phe 3 du pré­sent artic­le ou a émis une objec­tion au sens de l’ar­tic­le 60(4), point (b), la décis­i­on ou l’ob­jec­tion indi­que les rai­sons qui la motiv­ent et la maniè­re dont le four­nis­seur ou le four­nis­seur poten­tiel peut con­te­ster la décis­i­on ou l’objection.

5. Le cas échéant, lorsqu’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché a pris une décis­i­on visée au para­gra­phe 3, elle en com­mu­ni­que les motifs aux auto­ri­tés de sur­veil­lan­ce du mar­ché d’aut­res États mem­bres dans les­quels le système IA a été testé con­for­mé­ment au plan d’essai.

Artic­le 77 Pou­voirs des auto­ri­tés publi­ques en matiè­re de pro­tec­tion des droits fondamentaux

1. Les auto­ri­tés ou orga­nis­mes publics nati­on­aux qui con­trô­lent ou font respec­ter les obli­ga­ti­ons pré­vues par le droit de l’U­ni­on en matiè­re de pro­tec­tion des droits fon­da­men­taux, y com­pris le droit à la non-dis­cri­mi­na­ti­on, en ce qui con­cer­ne l’uti­li­sa­ti­on des systè­mes d’IA à haut ris­que visés à l’an­ne­xe III, ont le droit de deman­der et d’ob­te­nir l’ac­cès à tou­te docu­men­ta­ti­on cré­ée ou con­ser­vée en ver­tu du pré­sent règle­ment, dans une lan­gue et un for­mat acce­s­si­bles, lorsque l’ac­cès à cet­te docu­men­ta­ti­on est néces­saire à l’ac­com­plis­se­ment effec­tif de leurs mis­si­ons dans les limi­tes de leur com­pé­tence. L’au­to­ri­té ou l’or­ga­nis­me public con­cer­né infor­me l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre con­cer­né de tou­te deman­de de ce type.

2. Au plus tard … [trois mois après l’en­trée en vigueur du pré­sent règle­ment], chaque État membre iden­ti­fie les auto­ri­tés publi­ques ou les orga­nis­mes visés au para­gra­phe 1 et en dres­se la liste, qui est ren­due publi­que. Les États mem­bres noti­fi­ent la liste à la Com­mis­si­on et aux aut­res États mem­bres et la tien­nent à jour.

3. Lorsque les docu­ments visés au para­gra­phe 1 sont insuf­fi­sants pour déter­mi­ner si un man­quement aux obli­ga­ti­ons pré­vues par le droit de l’U­ni­on en matiè­re de pro­tec­tion des droits fon­da­men­taux a eu lieu, l’au­to­ri­té ou l’or­ga­nis­me public visé au para­gra­phe 1 peut adress­er une deman­de moti­vée à l’au­to­ri­té de sur­veil­lan­ce du mar­ché pour qu’el­le orga­ni­se des tests du système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que par des moy­ens tech­ni­ques. L’au­to­ri­té de sur­veil­lan­ce du mar­ché orga­ni­se les tests avec la par­ti­ci­pa­ti­on étroi­te de l’au­to­ri­té ou de l’or­ga­nis­me public requé­rant dans un délai rai­sonnable après la demande.

4. Tou­te infor­ma­ti­on ou docu­men­ta­ti­on obte­nue par les auto­ri­tés ou orga­nis­mes publics nati­on­aux visés au para­gra­phe 1 du pré­sent artic­le en ver­tu du pré­sent artic­le est trai­tée con­for­mé­ment aux obli­ga­ti­ons de con­fi­den­tia­li­té énon­cées à l’ar­tic­le 78.

Artic­le 78 Confidentialité

La Com­mis­si­on, les auto­ri­tés de sur­veil­lan­ce du mar­ché et les orga­nis­mes noti­fi­és ain­si que tou­te aut­re per­son­ne phy­si­que ou mora­le par­ti­ci­pant à l’ap­pli­ca­ti­on du pré­sent règle­ment respec­tent, con­for­mé­ment au droit de l’U­ni­on ou au droit natio­nal, la con­fi­den­tia­li­té des infor­ma­ti­ons et des don­nées obte­nues dans l’e­xer­ci­ce de leurs fonc­tions et de leurs acti­vi­tés de maniè­re à les pro­té­ger, en particulier :

(a) les droits de pro­prié­té intellec­tu­el­le et les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les ou les secrets com­mer­ci­aux d’u­ne per­son­ne phy­si­que ou mora­le, y com­pris les codes sources, sauf dans les cas visés à l’ar­tic­le 5 de la direc­ti­ve (UE) 2016/943 du Par­le­ment euro­pé­en et du Conseil ;

(b) la mise en œuvre effec­ti­ve du pré­sent règle­ment, en par­ti­cu­lier à des fins d’in­spec­tion, d’en­quête ou d’audit ;

(c) les inté­rêts publics et de sécu­ri­té nationale ;

(d) le dérou­le­ment de pro­cé­du­res péna­les ou administratives ;

(e) infor­ma­ti­ons clas­si­fi­ées con­for­mé­ment au droit de l’U­ni­on ou au droit national.

2. Les auto­ri­tés impli­quées dans l’ap­pli­ca­ti­on du pré­sent règle­ment en ver­tu du para­gra­phe 1 ne deman­dent que les don­nées stric­te­ment néces­saires à l’éva­lua­ti­on du ris­que posé par les systè­mes d’in­tel­li­gence arti­fi­ci­el­le et à l’e­xer­ci­ce de leurs pou­voirs con­for­mé­ment au pré­sent règle­ment et au règle­ment (UE) 2019/1020. Elles met­tent en place des mesu­res de cyber­sé­cu­ri­té appro­priées et effi­caces pour pro­té­ger la sécu­ri­té et la con­fi­den­tia­li­té des infor­ma­ti­ons et des don­nées obte­nues et détrui­sent les don­nées coll­ec­tées dès qu’el­les ne sont plus néces­saires aux fins pour les­quel­les elles ont été obte­nues, con­for­mé­ment au droit com­mun­au­tai­re ou natio­nal applicable.

3. Sans pré­ju­di­ce des para­gra­phes 1 et 2, les infor­ma­ti­ons échan­gées sur une base con­fi­den­ti­el­le ent­re les auto­ri­tés natio­na­les com­pé­ten­tes ou ent­re les auto­ri­tés natio­na­les com­pé­ten­tes et la Com­mis­si­on ne sont pas divul­guées sans con­sul­ta­ti­on pré­alable de l’au­to­ri­té natio­na­le com­pé­ten­te d’o­ri­gi­ne et du desti­na­tai­re lorsque des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que visés aux points 1, 6 ou 7 de l’an­ne­xe III sont uti­li­sés par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, du con­trô­le des fron­tiè­res, de l’im­mi­gra­ti­on ou de l’a­si­le et lorsque cet­te divul­ga­ti­on por­terait att­ein­te aux inté­rêts publics et à la sécu­ri­té natio­na­le. Cet éch­an­ge d’in­for­ma­ti­ons ne doit pas cou­vr­ir les don­nées opé­ra­ti­on­nel­les sen­si­bles rela­ti­ves aux acti­vi­tés des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, du con­trô­le des fron­tiè­res, de l’im­mi­gra­ti­on ou de l’asile.

Lorsque les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, de l’im­mi­gra­ti­on ou de l’a­si­le four­nis­sent des systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique à haut ris­que visés aux points 1, 6 ou 7 de l’an­ne­xe III, la docu­men­ta­ti­on tech­ni­que visée à l’an­ne­xe IV doit rester dans les locaux de ces auto­ri­tés. Ces auto­ri­tés veil­lent à ce que les auto­ri­tés de sur­veil­lan­ce du mar­ché visées à l’ar­tic­le 74, para­gra­phes 8 et 9, le cas échéant, pui­s­sent, sur deman­de, accé­der immé­dia­te­ment à la docu­men­ta­ti­on ou en obte­nir une copie. Seul le per­son­nel de l’au­to­ri­té de sur­veil­lan­ce du mar­ché dis­po­sant du niveau de sécu­ri­té appro­prié est auto­ri­sé à accé­der à cet­te docu­men­ta­ti­on ou à tou­te copie de celle-ci.

4. Les para­gra­phes 1, 2 et 3 n’af­fec­tent pas les droits ou obli­ga­ti­ons de la Com­mis­si­on, des États mem­bres et de leurs auto­ri­tés com­pé­ten­tes, ain­si que des orga­nis­mes noti­fi­és, en ce qui con­cer­ne l’é­ch­an­ge d’in­for­ma­ti­ons et la dif­fu­si­on d’a­ler­tes, y com­pris dans le cad­re de la coopé­ra­ti­on trans­fron­ta­liè­re, ni les obli­ga­ti­ons des par­ties con­cer­nées de four­nir des infor­ma­ti­ons en ver­tu du droit pénal des États membres.

5. La Com­mis­si­on et les États mem­bres peu­vent, si néces­saire et con­for­mé­ment aux dis­po­si­ti­ons per­ti­nen­tes des accords inter­na­ti­on­aux et com­mer­ci­aux, éch­an­ger des infor­ma­ti­ons con­fi­den­ti­el­les avec les auto­ri­tés régle­men­tai­res de pays tiers avec les­quel­les ils ont con­clu des accords de con­fi­den­tia­li­té bila­té­raux ou mul­ti­la­té­raux garan­tis­sant un niveau de con­fi­den­tia­li­té approprié.

(167) Afin d’assurer une coopé­ra­ti­on loya­le et cons­truc­ti­ve ent­re les auto­ri­tés com­pé­ten­tes au niveau de l’U­ni­on et au niveau natio­nal, tou­tes les par­ties con­cer­nées par l’ap­pli­ca­ti­on du pré­sent règle­ment dev­rai­ent respec­ter la con­fi­den­tia­li­té des infor­ma­ti­ons et des don­nées obte­nues dans l’e­xer­ci­ce de leurs fonc­tions, con­for­mé­ment au droit de l’U­ni­on ou au droit natio­nal. Elles dev­rai­ent s’ac­quit­ter de leurs tâches et acti­vi­tés de maniè­re à pro­té­ger, en par­ti­cu­lier, les droits de pro­prié­té intellec­tu­el­le, les infor­ma­ti­ons com­mer­cia­les con­fi­den­ti­el­les et les secrets com­mer­ci­aux, la mise en œuvre effec­ti­ve du pré­sent règle­ment, les inté­rêts de la sécu­ri­té publi­que et natio­na­le, l’in­té­gri­té des pro­cé­du­res péna­les et admi­ni­stra­ti­ves et l’in­té­gri­té des infor­ma­ti­ons classifiées.

Artic­le 79 Pro­cé­du­re au niveau natio­nal pour trai­ter les systè­mes IA pré­sen­tant un risque

1. Les systè­mes d’IA pré­sen­tant un ris­que doi­vent être con­sidé­rés com­me un “pro­duit pré­sen­tant un ris­que” tel que défi­ni à l’ar­tic­le 3, point 19, du règle­ment (UE) 2019/1020, dans la mesu­re où ils pré­sen­tent des ris­ques pour la san­té ou la sécu­ri­té, ou pour les droits fon­da­men­taux, des personnes.

2. Lorsque l’au­to­ri­té de sur­veil­lan­ce du mar­ché d’un État membre a des rai­sons suf­fi­san­tes de con­sidé­rer qu’un système d’in­for­ma­ti­on finan­ciè­re pré­sen­te un ris­que tel que visé au para­gra­phe 1 du pré­sent artic­le, elle procè­de à une éva­lua­ti­on du système d’in­for­ma­ti­on finan­ciè­re con­cer­né quant à sa con­for­mi­té avec l’en­sem­ble des exi­gen­ces et obli­ga­ti­ons énon­cées dans le pré­sent règle­ment. Une atten­ti­on par­ti­cu­liè­re est accor­dée aux systè­mes d’AI pré­sen­tant un ris­que pour les grou­pes vul­né­ra­bles. Lorsque des ris­ques pour les droits fon­da­men­taux sont iden­ti­fi­és, l’au­to­ri­té de sur­veil­lan­ce du mar­ché doit éga­le­ment infor­mer et coopé­rer plei­ne­ment avec les auto­ri­tés publi­ques natio­na­les com­pé­ten­tes ou les orga­nis­mes visés à l’ar­tic­le 77(1). Les opé­ra­teurs con­cer­nés coopè­rent en tant que de beso­in avec l’au­to­ri­té de sur­veil­lan­ce du mar­ché et avec les aut­res auto­ri­tés ou orga­nis­mes publics nati­on­aux visés à l’ar­tic­le 77(1).

Si, au cours de cet­te éva­lua­ti­on, l’au­to­ri­té de sur­veil­lan­ce du mar­ché ou, le cas échéant, l’au­to­ri­té de sur­veil­lan­ce du mar­ché en coopé­ra­ti­on avec l’au­to­ri­té publi­que natio­na­le visée à l’ar­tic­le 77(1), con­sta­te que le système d’in­for­ma­ti­on finan­ciè­re ne respec­te pas les exi­gen­ces et obli­ga­ti­ons pré­vues par le pré­sent règle­ment, elle exi­ge sans délai de l’opé­ra­teur con­cer­né qu’il pren­ne tou­tes les mesu­res cor­rec­ti­ves appro­priées pour mett­re le système d’in­for­ma­ti­on finan­ciè­re en con­for­mi­té, pour le reti­rer du mar­ché ou pour le rap­pe­l­er dans un délai que l’au­to­ri­té de sur­veil­lan­ce du mar­ché peut pre­scr­i­re et, en tout état de cau­se, dans un délai infé­ri­eur à 15 jours ouvra­bles, ou tel que pré­vu par la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on pertinente.

L’au­to­ri­té de sur­veil­lan­ce du mar­ché infor­me l’or­ga­nis­me noti­fié con­cer­né en con­sé­quence. L’ar­tic­le 18 du règle­ment (UE) 2019/1020 s’ap­pli­que aux mesu­res visées au deu­xiè­me ali­néa du pré­sent paragraphe.

3. Si l’au­to­ri­té de sur­veil­lan­ce du mar­ché esti­me que la non-con­for­mi­té n’est pas limi­tée à son ter­ri­toire natio­nal, elle infor­me sans délai la Com­mis­si­on et les aut­res États mem­bres des résul­tats de l’éva­lua­ti­on et des mesu­res qu’el­le a deman­dé à l’opé­ra­teur de prendre.

4. L’ex­plo­itant doit veil­ler à ce que tou­tes les mesu­res cor­rec­ti­ves appro­priées soi­ent pri­ses à l’é­gard de tous les systè­mes IA con­cer­nés qu’il a mis à dis­po­si­ti­on sur le mar­ché de l’Union.

5. Si l’ex­plo­itant d’un système d’i­den­ti­fi­ca­ti­on auto­ma­tique ne prend pas de mesu­res cor­rec­ti­ves appro­priées dans le délai visé au para­gra­phe 2, l’au­to­ri­té de sur­veil­lan­ce du mar­ché prend tou­tes les mesu­res pro­vi­so­i­res appro­priées pour interd­ire ou rest­reind­re la mise à dis­po­si­ti­on du système d’i­den­ti­fi­ca­ti­on auto­ma­tique sur son mar­ché natio­nal ou sa mise en ser­vice, pour reti­rer le pro­duit ou le système d’i­den­ti­fi­ca­ti­on auto­ma­tique auto­no­me de ce mar­ché ou pour le récup­é­rer. Cet­te auto­ri­té infor­me sans délai la Com­mis­si­on et les aut­res États mem­bres de ces mesures.

6. La noti­fi­ca­ti­on visée au para­gra­phe 5 con­ti­ent tous les détails dis­po­ni­bles, notam­ment les infor­ma­ti­ons néces­saires à l’i­den­ti­fi­ca­ti­on du système IA non con­for­me, l’o­ri­gi­ne du système IA et de la chaî­ne d’ap­pro­vi­si­on­ne­ment, la natu­re de la non-con­for­mi­té con­sta­tée et le ris­que encou­ru, la natu­re et la durée des mesu­res natio­na­les pri­ses et les argu­ments avan­cés par l’opé­ra­teur con­cer­né. En par­ti­cu­lier, les auto­ri­tés de sur­veil­lan­ce du mar­ché doi­vent indi­quer si la non-con­for­mi­té est due à l’un ou plu­sieurs des élé­ments suivants :

(a) la non-con­for­mi­té avec l’in­ter­dic­tion des pra­ti­ques d’IA men­ti­onnées à l’ar­tic­le 5 ;

(b) un défaut de con­for­mi­té d’un système d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que avec les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2 ;

(c) des lacu­nes dans les nor­mes har­mo­ni­sées ou les spé­ci­fi­ca­ti­ons com­mu­nes visées aux artic­les 40 et 41, qui con­fè­rent une pré­somp­ti­on de conformité ;

(d) la non-con­for­mi­té à l’ar­tic­le 50.

7. Les auto­ri­tés de sur­veil­lan­ce du mar­ché aut­res que l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre qui a enga­gé la pro­cé­du­re infor­ment sans délai la Com­mis­si­on et les aut­res États mem­bres de tou­te mesu­re adop­tée et de tou­te infor­ma­ti­on sup­p­lé­men­tai­re à leur dis­po­si­ti­on con­cer­nant la non-con­for­mi­té du système d’assu­rance inva­li­di­té con­cer­né et, en cas de dés­ac­cord avec la mesu­re natio­na­le noti­fi­ée, de leurs objections.

8. Si, dans un délai de trois mois à comp­ter de la récep­ti­on de la noti­fi­ca­ti­on visée au para­gra­phe 5 du pré­sent artic­le, aucu­ne objec­tion n’a été sou­le­vée par une auto­ri­té de sur­veil­lan­ce du mar­ché d’un État membre ou par la Com­mis­si­on à l’é­gard d’u­ne mesu­re pro­vi­so­i­re pri­se par une auto­ri­té de sur­veil­lan­ce du mar­ché d’un aut­re État membre, cet­te mesu­re est répu­tée justi­fi­ée. Ceci est sans pré­ju­di­ce des droits pro­cé­du­raux de l’opé­ra­teur con­cer­né con­for­mé­ment à l’ar­tic­le 18 du règle­ment (UE) 2019/1020. La péri­ode de trois mois visée au pré­sent para­gra­phe est réduite à 30 jours en cas de non-con­for­mi­té avec l’in­ter­dic­tion des pra­ti­ques AI visée à l’ar­tic­le 5 du pré­sent règlement.

9. Les auto­ri­tés de sur­veil­lan­ce du mar­ché veil­lent à ce que des mesu­res rest­ric­ti­ves appro­priées soi­ent pri­ses à l’é­gard du pro­duit ou du système IA con­cer­né, tel­les que le retrait du pro­duit ou du système IA de leur mar­ché, sans retard injustifié.

Artic­le 80 Pro­cé­du­re à sui­v­re pour trai­ter les systè­mes IA clas­sés par le four­nis­seur com­me ne pré­sen­tant pas de ris­que éle­vé en appli­ca­ti­on de l’an­ne­xe III

1. Lorsqu’u­ne auto­ri­té de sur­veil­lan­ce du mar­ché a des rai­sons suf­fi­san­tes de pen­ser qu’un système d’IA clas­sé par le four­nis­seur com­me ne pré­sen­tant pas de ris­que éle­vé con­for­mé­ment à l’ar­tic­le 6, para­gra­phe 3, pré­sen­te en fait un ris­que éle­vé, l’au­to­ri­té de sur­veil­lan­ce du mar­ché procè­de à une éva­lua­ti­on du système d’IA con­cer­né en ce qui con­cer­ne sa clas­si­fi­ca­ti­on com­me système d’IA à haut ris­que sur la base des con­di­ti­ons énon­cées à l’ar­tic­le 6, para­gra­phe 3, et des lignes direc­tri­ces de la Commission.

2. Si, au cours de cet­te éva­lua­ti­on, l’au­to­ri­té de sur­veil­lan­ce du mar­ché con­sta­te que le système d’in­for­ma­ti­on finan­ciè­re con­cer­né pré­sen­te un ris­que éle­vé, elle exi­ge sans délai du four­nis­seur con­cer­né qu’il pren­ne tou­tes les mesu­res néces­saires pour mett­re le système d’in­for­ma­ti­on finan­ciè­re en con­for­mi­té avec les exi­gen­ces et les obli­ga­ti­ons pré­vues par le pré­sent règle­ment, ain­si que pour prend­re les mesu­res cor­rec­ti­ves appro­priées dans un délai que l’au­to­ri­té de sur­veil­lan­ce du mar­ché peut prescrire.

3. Si l’au­to­ri­té de sur­veil­lan­ce du mar­ché esti­me que l’uti­li­sa­ti­on du système d’i­den­ti­fi­ca­ti­on auto­ma­tique con­cer­né n’est pas limi­tée à son ter­ri­toire natio­nal, elle infor­me sans délai la Com­mis­si­on et les aut­res États mem­bres des résul­tats de l’éva­lua­ti­on et des mesu­res qu’el­le a deman­dé au four­nis­seur de prendre.

4. Le four­nis­seur veil­le à ce que tou­tes les mesu­res néces­saires soi­ent pri­ses pour mett­re le système d’assu­rance inva­li­di­té en con­for­mi­té avec les exi­gen­ces et les obli­ga­ti­ons énon­cées dans le pré­sent règle­ment. Si le four­nis­seur d’un système d’assu­rance inva­li­di­té con­cer­né ne met pas le système d’assu­rance inva­li­di­té en con­for­mi­té avec ces exi­gen­ces et obli­ga­ti­ons dans le délai visé au para­gra­phe 2 du pré­sent artic­le, le four­nis­seur est pas­si­ble des sanc­tions pré­vues à l’ar­tic­le 99.

5. Le four­nis­seur doit veil­ler à ce que tou­tes les mesu­res cor­rec­ti­ves appro­priées soi­ent pri­ses à l’é­gard de tous les systè­mes d’in­tel­li­gence arti­fi­ci­el­le con­cer­nés qu’il a mis à dis­po­si­ti­on sur le mar­ché de l’Union.

6. Si le four­nis­seur du système d’assu­rance inva­li­di­té con­cer­né ne prend pas les mesu­res cor­rec­ti­ves appro­priées dans le délai visé au para­gra­phe 2 du pré­sent artic­le, l’ar­tic­le 79, para­gra­phes 5 à 9, s’applique.

7. Si, au cours de l’éva­lua­ti­on visée au para­gra­phe 1 du pré­sent artic­le, l’au­to­ri­té de sur­veil­lan­ce du mar­ché éta­blit que le système d’assu­rance-inva­li­di­té a été mal clas­sé par le four­nis­seur com­me ne pré­sen­tant pas de ris­que éle­vé afin de con­tour­ner l’ap­pli­ca­ti­on des exi­gen­ces pré­vues au cha­pit­re III, sec­tion 2, le four­nis­seur est pas­si­ble des sanc­tions pré­vues à l’ar­tic­le 99.

Dans l’e­xer­ci­ce de leur pou­voir de con­trô­le de l’ap­pli­ca­ti­on du pré­sent artic­le, et con­for­mé­ment à l’ar­tic­le 11 du règle­ment (UE) 2019/1020, les auto­ri­tés de sur­veil­lan­ce du mar­ché peu­vent pro­cé­der à des véri­fi­ca­ti­ons appro­priées, en tenant comp­te en par­ti­cu­lier des infor­ma­ti­ons stockées dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71 du pré­sent règlement.

Artic­le 81 Pro­cé­du­re de sau­vegar­de de l’Union

1. Si, dans les trois mois sui­vant la récep­ti­on de la noti­fi­ca­ti­on visée à l’ar­tic­le 79, para­gra­phe 5, ou dans les 30 jours en cas de non-respect de l’in­ter­dic­tion des pra­ti­ques d’i­ni­tiés visée à l’ar­tic­le 5, des objec­tions sont sou­le­vées par l’au­to­ri­té de sur­veil­lan­ce du mar­ché d’un État membre à l’en­cont­re d’u­ne mesu­re pri­se par une aut­re auto­ri­té de sur­veil­lan­ce du mar­ché, ou si la Com­mis­si­on con­sidè­re que la mesu­re est con­trai­re au droit de l’U­ni­on, la Com­mis­si­on ent­re sans délai en con­sul­ta­ti­on avec l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre con­cer­né et le ou les opé­ra­teurs, et éva­lue la mesu­re natio­na­le. Sur la base des résul­tats de cet­te éva­lua­ti­on, la Com­mis­si­on déci­de, dans un délai de six mois, ou de 60 jours en cas de non-con­for­mi­té avec l’in­ter­dic­tion des pra­ti­ques d’IA visée à l’ar­tic­le 5, à comp­ter de la noti­fi­ca­ti­on visée à l’ar­tic­le 79, para­gra­phe 5, si la mesu­re natio­na­le est justi­fi­ée et noti­fie sa décis­i­on à l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre con­cer­né. La Com­mis­si­on infor­me éga­le­ment de sa décis­i­on tou­tes les aut­res auto­ri­tés de sur­veil­lan­ce du marché.

2. Si la Com­mis­si­on esti­me que la mesu­re pri­se par l’É­tat membre con­cer­né est justi­fi­ée, tous les États mem­bres s’assu­rent qu’ils pren­nent des mesu­res rest­ric­ti­ves appro­priées à l’é­gard du système d’AI con­cer­né, tel­les que l’ob­li­ga­ti­on de reti­rer sans délai le système d’AI de leur mar­ché, et en infor­ment la Com­mis­si­on. Si la Com­mis­si­on esti­me que la mesu­re natio­na­le est inju­sti­fi­ée, l’É­tat membre con­cer­né reti­re la mesu­re et en infor­me la Commission.

3. Lorsque la mesu­re natio­na­le est jugée justi­fi­ée et que la non-con­for­mi­té du système d’assu­rance inva­li­di­té est attri­buée à des lacu­nes dans les nor­mes har­mo­ni­sées ou les spé­ci­fi­ca­ti­ons com­mu­nes visées aux artic­les 40 et 41 du pré­sent règle­ment, la Com­mis­si­on appli­que la pro­cé­du­re pré­vue à l’ar­tic­le 11 du règle­ment (UE) n° 1025/2012.

Artic­le 82 Systè­mes IA con­for­mes qui pré­sen­tent un risque

1. Si, après avoir pro­cé­dé à une éva­lua­ti­on con­for­mé­ment à l’ar­tic­le 79 et après avoir con­sul­té l’au­to­ri­té publi­que natio­na­le com­pé­ten­te visée à l’ar­tic­le 77(1), l’au­to­ri­té de sur­veil­lan­ce du mar­ché d’un État membre con­sta­te que, bien qu’un système IA à haut ris­que soit con­for­me au pré­sent règle­ment, il pré­sen­te néan­mo­ins un ris­que pour la san­té ou la sécu­ri­té des per­son­nes, pour les droits fon­da­men­taux ou pour d’aut­res aspects de la pro­tec­tion de l’in­té­rêt public, elle exi­ge de l’opé­ra­teur con­cer­né qu’il pren­ne tou­tes les mesu­res appro­priées pour fai­re en sor­te que le système IA en que­sti­on, une fois mis sur le mar­ché ou en ser­vice, ne pré­sen­te plus ce ris­que sans retard inju­sti­fié, dans un délai qu’el­le peut prescrire.

2. Le four­nis­seur ou aut­re opé­ra­teur con­cer­né veil­le à ce que des mesu­res cor­rec­ti­ves soi­ent pri­ses à l’é­gard de tous les systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique qu’il a mis à dis­po­si­ti­on sur le mar­ché de l’U­ni­on dans les délais pre­scrits par l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre visé au para­gra­phe 1.

3. Les États mem­bres infor­ment immé­dia­te­ment la Com­mis­si­on et les aut­res États mem­bres de tou­te décou­ver­te visée au para­gra­phe 1. Ces infor­ma­ti­ons com­pren­nent tous les détails dis­po­ni­bles, en par­ti­cu­lier les don­nées néces­saires à l’i­den­ti­fi­ca­ti­on du système d’i­den­ti­fi­ca­ti­on auto­ma­tique con­cer­né, l’o­ri­gi­ne et la chaî­ne d’ap­pro­vi­si­on­ne­ment du système d’i­den­ti­fi­ca­ti­on auto­ma­tique, la natu­re du ris­que encou­ru ain­si que la natu­re et la durée des mesu­res natio­na­les prises.

4. La Com­mis­si­on ent­re sans délai en con­sul­ta­ti­on avec les États mem­bres con­cer­nés et les opé­ra­teurs per­tin­ents, et éva­lue les mesu­res natio­na­les pri­ses. Sur la base des résul­tats de cet­te éva­lua­ti­on, la Com­mis­si­on déter­mi­ne si la mesu­re est justi­fi­ée et, le cas échéant, pro­po­se d’aut­res mesu­res appropriées.

La Com­mis­si­on com­mu­ni­que immé­dia­te­ment sa décis­i­on aux États mem­bres con­cer­nés et aux opé­ra­teurs con­cer­nés. Elle en infor­me éga­le­ment les aut­res États membres.

Artic­le 83 Non-con­for­mi­té formelle

1. Lorsque l’au­to­ri­té de sur­veil­lan­ce du mar­ché d’un État membre fait l’u­ne des con­sta­ta­ti­ons sui­van­tes, elle exi­ge du four­nis­seur con­cer­né qu’il met­te fin à la non-con­for­mi­té en que­sti­on dans le délai qu’el­le peut prescrire :

(a) le mar­quage CE a été appo­sé en vio­la­ti­on de l’ar­tic­le 48 ;

(b) le mar­quage CE n’a pas été apposé ;

(c) la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 n’a pas été établie ;

(d) la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 n’a pas été éta­b­lie correctement ;

(e) l’en­re­gi­stre­ment dans la base de don­nées de l’U­ni­on euro­pé­en­ne visée à l’ar­tic­le 71 n’a pas été effectué ;

(f) whe­re appli­ca­ble, no aut­ho­ri­sed repre­sen­ta­ti­ve has been appointed ;

(g) la docu­men­ta­ti­on tech­ni­que n’est pas disponible.

2. Si la non-con­for­mi­té visée au para­gra­phe 1 per­si­ste, l’au­to­ri­té de sur­veil­lan­ce du mar­ché de l’É­tat membre con­cer­né prend des mesu­res appro­priées et pro­por­ti­onnées pour rest­reind­re ou interd­ire la mise à dis­po­si­ti­on sur le mar­ché du système IA à haut ris­que ou pour assurer son rap­pel ou son retrait du mar­ché sans délai.

Artic­le 84 Uni­on AI test­ing sup­port structures

1. La Com­mis­si­on dési­gne une ou plu­sieurs struc­tures d’ap­pui aux essais d’IA de l’U­ni­on pour exé­cu­ter les tâches énu­mé­rées à l’ar­tic­le 21, para­gra­phe 6, du règle­ment (UE) 2019/1020 dans le domaine de l’IA.

2. Sans pré­ju­di­ce des tâches visées au para­gra­phe 1, les struc­tures d’ap­pui aux essais de l’U­ni­on AI peu­vent éga­le­ment four­nir des con­seils tech­ni­ques ou sci­en­ti­fi­ques indé­pen­dants à la deman­de du Con­seil, de la Com­mis­si­on ou des auto­ri­tés de sur­veil­lan­ce du marché.

(152) Afin de sou­te­nir une mise en œuvre adé­qua­te en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le et de ren­forcer les capa­ci­tés des États mem­bres, des struc­tures d’ap­pui aux tests d’in­tel­li­gence arti­fi­ci­el­le de l’U­ni­on dev­rai­ent être éta­b­lies et mises à la dis­po­si­ti­on des États membres.

Sec­tion 4 Remèdes

Artic­le 85 Droit de dépo­ser une plain­te auprès d’u­ne auto­ri­té de sur­veil­lan­ce du marché

Sans pré­ju­di­ce d’aut­res recours admi­ni­stra­tifs ou judi­ciai­res, tou­te per­son­ne phy­si­que ou mora­le ayant des rai­sons de pen­ser qu’il y a eu vio­la­ti­on des dis­po­si­ti­ons du pré­sent règle­ment peut sou­mett­re une plain­te à l’au­to­ri­té de sur­veil­lan­ce du mar­ché concernée.

Con­for­mé­ment au règle­ment (UE) 2019/1020, ces plain­tes doi­vent être pri­ses en comp­te dans le but de mener des acti­vi­tés de sur­veil­lan­ce du mar­ché, et doi­vent être trai­tées con­for­mé­ment aux pro­cé­du­res spé­ci­fi­ques éta­b­lies à cet effet par les auto­ri­tés de sur­veil­lan­ce du marché.

(170) L’U­ni­on et le droit natio­nal offrent déjà des voies de recours effec­ti­ves aux per­son­nes phy­si­ques et mora­les dont les droits et liber­tés sont défa­vora­blem­ent affec­tés par l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Sans pré­ju­di­ce de ces recours, tou­te per­son­ne phy­si­que ou mora­le qui a des rai­sons de pen­ser qu’il y a eu vio­la­ti­on du pré­sent règle­ment dev­rait avoir le droit de dépo­ser une plain­te auprès de l’au­to­ri­té de sur­veil­lan­ce du mar­ché compétente.

Artic­le 86 Droit à l’ex­pli­ca­ti­on de la décis­i­on individuelle

1. Tou­te per­son­ne affec­tée par une décis­i­on pri­se par le déclarant sur la base des résul­tats d’un système d’i­den­ti­fi­ca­ti­on à haut ris­que figu­rant sur la liste de l’an­ne­xe III, à l’ex­cep­ti­on des systè­mes énu­mé­rés au point 2 de cel­le-ci, et qui pro­duit des effets juri­di­ques ou affec­te de maniè­re simi­lai­re et signi­fi­ca­ti­ve cet­te per­son­ne d’u­ne maniè­re qu’ils esti­ment pré­ju­di­cia­ble à sa san­té, à sa sécu­ri­té ou à ses droits fon­da­men­taux, a le droit d’ob­te­nir du déclarant des expli­ca­ti­ons clai­res et per­ti­nen­tes sur le rôle du système d’i­den­ti­fi­ca­ti­on à haut ris­que dans le pro­ce­s­sus de décis­i­on et sur les prin­ci­paux élé­ments de la décis­i­on prise.

2. Le para­gra­phe 1 ne s’ap­pli­que pas à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour les­quels des excep­ti­ons ou des rest­ric­tions à l’ob­li­ga­ti­on pré­vue dans ce para­gra­phe décou­lent du droit de l’U­ni­on ou du droit natio­nal, con­for­mé­ment au droit de l’Union.

3. Le pré­sent artic­le ne s’ap­pli­que que dans la mesu­re où le droit visé au para­gra­phe 1 n’est pas pré­vu autre­ment par le droit de l’Union.

(171) Les per­son­nes con­cer­nées dev­rai­ent avoir le droit d’ob­te­nir une expli­ca­ti­on sur le fait que la décis­i­on d’un déployeur se fon­de prin­ci­pa­le­ment sur les résul­tats de cer­ta­ins systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règle­ment, et que cet­te décis­i­on pro­duit des effets juri­di­ques ou affec­te de maniè­re simi­lai­re ces per­son­nes de façon signi­fi­ca­ti­ve, de sor­te qu’el­les con­sidè­rent qu’el­le a un impact néga­tif sur leur san­té, leur sécu­ri­té ou leurs droits fon­da­men­taux. Cet­te expli­ca­ti­on doit être clai­re et per­ti­nen­te et doit four­nir une base sur laquel­le les per­son­nes con­cer­nées peu­vent exer­cer leurs droits. Le droit d’ob­te­nir une expli­ca­ti­on ne dev­rait pas s’ap­pli­quer à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour les­quels des excep­ti­ons ou des rest­ric­tions décou­lent du droit de l’U­ni­on ou du droit natio­nal et ne dev­rait s’ap­pli­quer que dans la mesu­re où ce droit n’est pas déjà pré­vu par le droit de l’U­ni­on. Les per­son­nes agis­sant en tant que dénon­cia­teurs des vio­la­ti­ons du pré­sent règle­ment dev­rai­ent être pro­té­gées en ver­tu du droit de l’U­ni­on. La direc­ti­ve (UE) 2019/1937 du Par­le­ment euro­pé­en et du Conseil54 dev­rait donc s’ap­pli­quer à la dénon­cia­ti­on des infrac­tions au pré­sent règle­ment et à la pro­tec­tion des per­son­nes dénon­çant de tel­les infractions.

Artic­le 87 Report­ing des infrac­tions et pro­tec­tion des per­son­nes déclarantes

La direc­ti­ve (UE) 2019/1937 s’ap­pli­que à la noti­fi­ca­ti­on des infrac­tions au pré­sent règle­ment et à la pro­tec­tion des per­son­nes qui signalent de tel­les infractions.

(172) Les per­son­nes agis­sant en tant que dénon­cia­teurs des vio­la­ti­ons du pré­sent règle­ment dev­rai­ent être pro­té­gées en ver­tu du droit de l’U­ni­on. La direc­ti­ve (UE) 2019/1937 du Par­le­ment euro­pé­en et du Conseil54 dev­rait donc s’ap­pli­quer à la dénon­cia­ti­on des infrac­tions au pré­sent règle­ment et à la pro­tec­tion des per­son­nes dénon­çant de tel­les infractions.

Sec­tion 5 Super­vi­si­on Inve­sti­ga­ti­on Enforce­ment And Moni­to­ring In Respect Of Pro­vi­ders Of Gene­ral Pur­po­se AI Models (Appli­ca­ti­on et sur­veil­lan­ce des enquêtes de sur­veil­lan­ce dans le respect des four­nis­seurs de modè­les d’IA à usa­ge général)

Artic­le 88 Appli­ca­ti­on des obli­ga­ti­ons des four­nis­seurs de modè­les d’IA à usa­ge général

1. La Com­mis­si­on a des pou­voirs exclu­sifs de sur­veil­lan­ce et d’exé­cu­ti­on du cha­pit­re V, comp­te tenu des garan­ties pro­cé­du­ra­les pré­vues à l’ar­tic­le 94. La Com­mis­si­on con­fie l’exé­cu­ti­on de ces tâches à l’Of­fice AI, sans pré­ju­di­ce des pou­voirs d’or­ga­ni­sa­ti­on de la Com­mis­si­on et de la répar­ti­ti­on des com­pé­ten­ces ent­re les États mem­bres et l’U­ni­on en ver­tu des traités.

2. Sans pré­ju­di­ce de l’ar­tic­le 75, para­gra­phe 3, les auto­ri­tés de sur­veil­lan­ce du mar­ché peu­vent deman­der à la Com­mis­si­on d’e­xer­cer les pou­voirs pré­vus par la pré­sen­te sec­tion, lorsque cela est néces­saire et pro­por­ti­onné pour les aider dans l’ac­com­plis­se­ment de leurs tâches au tit­re du pré­sent règlement.

Artic­le 89 Actions de suivi

1. Aux fins de l’exé­cu­ti­on des tâches qui lui sont assi­gnées en ver­tu de la pré­sen­te sec­tion, l’AI Office peut prend­re les mesu­res néces­saires pour con­trô­ler la mise en œuvre effec­ti­ve et le respect du pré­sent règle­ment par les four­nis­seurs de modè­les d’IA à usa­ge géné­ral, y com­pris leur adhé­si­on à des codes de pra­tique approuvés.

2. Les four­nis­seurs en aval ont le droit de dépo­ser une plain­te pour infrac­tion au pré­sent règle­ment. Une plain­te doit être dûment moti­vée et indi­quer au moins

(a) le point de cont­act du four­nis­seur du modè­le d’IA à usa­ge géné­ral concerné ;

(b) une descrip­ti­on des faits per­tin­ents, les dis­po­si­ti­ons du pré­sent règle­ment con­cer­nées, et la rai­son pour laquel­le le four­nis­seur en aval esti­me que le four­nis­seur du modè­le d’IA à usa­ge géné­ral con­cer­né a enfreint le pré­sent règlement ;

(c) tou­te aut­re infor­ma­ti­on que le four­nis­seur en aval qui a envoyé la deman­de juge per­ti­nen­te, y com­pris, le cas échéant, les infor­ma­ti­ons recu­eil­lies de sa pro­pre initiative.

Artic­le 90 Aler­tes de ris­que sys­té­mi­que par le grou­pe scientifique

1. Le panel sci­en­ti­fi­que peut four­nir une aler­te qua­li­fi­ée au bureau de l’AI s’il a des rai­sons de le suspecter :

(a) a gene­ral-pur­po­se AI model poses con­cre­te iden­ti­fia­ble risk at Uni­on level ; or,

(b) un modè­le d’AI à usa­ge géné­ral rem­plit les con­di­ti­ons visées à l’ar­tic­le 51.

2. Sur la base de cet­te aler­te qua­li­fi­ée, la Com­mis­si­on, par l’in­ter­mé­di­ai­re de l’AI Office et après en avoir infor­mé le Con­seil, peut exer­cer les pou­voirs pré­vus dans la pré­sen­te sec­tion aux fins de l’éva­lua­ti­on de la que­sti­on. L’AI Office infor­me le con­seil d’ad­mi­ni­stra­ti­on de tou­te mesu­re pri­se con­for­mé­ment aux artic­les 91 à 94.

3. Une aler­te qua­li­fi­ée doit être dûment justi­fi­ée et indi­quer au moins

(a) le point de cont­act du four­nis­seur du modè­le d’AI à usa­ge géné­ral avec ris­que sys­té­mi­que concerné ;

(b) une descrip­ti­on des faits per­tin­ents et des rai­sons de l’a­ler­te émi­se par le panel scientifique ;

(c) tou­te aut­re infor­ma­ti­on que le grou­pe sci­en­ti­fi­que juge per­ti­nen­te, y com­pris, le cas échéant, les infor­ma­ti­ons recu­eil­lies à sa pro­pre initiative.

Artic­le 91 Pou­voir de deman­der des docu­ments et des informations

1. La Com­mis­si­on peut deman­der au four­nis­seur du modè­le d’IA à usa­ge géné­ral con­cer­né de lui four­nir la docu­men­ta­ti­on qu’il a éta­b­lie con­for­mé­ment aux artic­les 53 et 55, ou tou­te aut­re infor­ma­ti­on néces­saire à l’éva­lua­ti­on de la con­for­mi­té du four­nis­seur au pré­sent règlement.

2. Avant d’en­voy­er la deman­de d’in­for­ma­ti­ons, le bureau AI peut enga­ger un dia­lo­gue struc­tu­ré avec le four­nis­seur du modè­le AI à usa­ge général.

3. Sur deman­de dûment moti­vée du grou­pe sci­en­ti­fi­que, la Com­mis­si­on peut adress­er une deman­de d’in­for­ma­ti­on à un four­nis­seur d’un modè­le d’IA à usa­ge géné­ral, lorsque l’ac­cès à l’in­for­ma­ti­on est néces­saire et pro­por­ti­onné à l’ac­com­plis­se­ment des tâches du grou­pe sci­en­ti­fi­que visées à l’ar­tic­le 68, para­gra­phe 2.

4. La deman­de d’in­for­ma­ti­on indi­que la base juri­di­que et le but de la deman­de, pré­cise les infor­ma­ti­ons requi­ses, fixe un délai dans lequel les infor­ma­ti­ons doi­vent être four­nies et indi­que les sanc­tions pré­vues à l’ar­tic­le 101 en cas de four­ni­tu­re d’in­for­ma­ti­ons inexac­tes, incom­plè­tes ou dénaturées.

5. Le four­nis­seur du modè­le d’AI à usa­ge géné­ral con­cer­né, ou son repré­sen­tant, doit four­nir les infor­ma­ti­ons deman­dées. Dans le cas de per­son­nes mora­les, de socié­tés ou d’entre­pri­ses, ou lorsque le four­nis­seur n’a pas de per­son­na­li­té juri­di­que, les per­son­nes auto­ri­sées à les repré­sen­ter en ver­tu de la loi ou de leurs sta­tuts doi­vent four­nir les infor­ma­ti­ons deman­dées pour le comp­te du four­nis­seur du modè­le d’IA à usa­ge géné­ral con­cer­né. Les avo­cats dûment habi­li­tés à agir peu­vent four­nir des infor­ma­ti­ons au nom de leurs cli­ents. Les cli­ents restent néan­mo­ins entiè­re­ment respons­ables si les infor­ma­ti­ons four­nies sont incom­plè­tes, erro­n­ées ou mensongères.

Artic­le 92 Pou­voir de mener des évaluations

1. L’AI Office, après avoir con­sul­té le con­seil d’ad­mi­ni­stra­ti­on, peut pro­cé­der à des éva­lua­tions du modè­le d’AI à usa­ge géné­ral concerné :

(a) pour éva­luer le respect par le pre­sta­tai­re des obli­ga­ti­ons pré­vues par le pré­sent règle­ment, lorsque les infor­ma­ti­ons recu­eil­lies en ver­tu de l’ar­tic­le 91 sont insuf­fi­san­tes ; ou,

(b) d’ex­ami­ner les ris­ques sys­té­mi­ques au niveau de l’U­ni­on des modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, en par­ti­cu­lier à la suite d’u­ne aler­te qua­li­fi­ée du grou­pe sci­en­ti­fi­que con­for­mé­ment à l’ar­tic­le 90(1), point (a).

2. La Com­mis­si­on peut déci­der de dési­gner des experts indé­pen­dants pour effec­tuer des éva­lua­tions en son nom, y com­pris des experts du grou­pe sci­en­ti­fi­que insti­tué en ver­tu de l’ar­tic­le 68. Les experts indé­pen­dants dési­gnés pour cet­te tâche doi­vent satis­fai­re aux critères énon­cés à l’ar­tic­le 68, para­gra­phe 2.

3. Aux fins du para­gra­phe 1, la Com­mis­si­on peut deman­der l’ac­cès au modè­le d’IA à usa­ge géné­ral con­cer­né par le biais d’A­PI ou d’aut­res moy­ens et outils tech­ni­ques appro­priés, y com­pris le code source.

4. La deman­de d’ac­cès indi­que la base juri­di­que, le but et les motifs de la deman­de et fixe le délai dans lequel l’ac­cès doit être four­ni, ain­si que les sanc­tions pré­vues à l’ar­tic­le 101 en cas de non-accès.

5. Le four­nis­seur du modè­le d’IA à usa­ge géné­ral con­cer­né ou son repré­sen­tant doit four­nir les infor­ma­ti­ons deman­dées. Dans le cas de per­son­nes mora­les, de socié­tés ou d’entre­pri­ses, ou lorsque le four­nis­seur n’a pas de per­son­na­li­té juri­di­que, les per­son­nes auto­ri­sées à les repré­sen­ter en ver­tu de la loi ou de leurs sta­tuts doi­vent four­nir l’ac­cès deman­dé au nom du four­nis­seur du modè­le d’IA à usa­ge géné­ral concerné.

6. La Com­mis­si­on adop­te des actes d’exé­cu­ti­on fix­ant les moda­li­tés et con­di­ti­ons détail­lées des éva­lua­tions, y com­pris les moda­li­tés détail­lées de recours à des experts indé­pen­dants, ain­si que la pro­cé­du­re de sélec­tion de ces der­niers. Ces actes d’exé­cu­ti­on sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

7. Avant de deman­der l’ac­cès au modè­le d’IA à usa­ge géné­ral con­cer­né, l’AI Office peut enga­ger un dia­lo­gue struc­tu­ré avec le four­nis­seur du modè­le d’IA à usa­ge géné­ral afin de recu­eil­lir davan­ta­ge d’in­for­ma­ti­ons sur le test inter­ne du modè­le, les garan­ties inter­nes visa­nt à pré­ve­nir les ris­ques sys­té­mi­ques et les aut­res pro­cé­du­res et mesu­res inter­nes que le four­nis­seur a pri­ses pour atté­nuer ces risques.

Artic­le 93 Pou­voir de deman­der des mesures

1. Lorsque cela est néces­saire et appro­prié, la Com­mis­si­on peut deman­der aux four­nis­seurs de :

(a) pren­nent les mesu­res appro­priées pour se con­for­mer aux obli­ga­ti­ons énon­cées aux artic­les 53 et 54 ;

(b) met­tent en œuvre des mesu­res d’at­té­nua­ti­on lorsque l’éva­lua­ti­on effec­tuée con­for­mé­ment à l’ar­tic­le 92 a mis en évi­dence un ris­que sys­té­mi­que gra­ve et avé­ré au niveau de l’Union ;

(c) rest­reind­re la fab­ri­ca­ti­on dis­po­ni­ble sur le mar­ché, reti­rer ou rap­pe­l­er le modèle.

2. Avant de deman­der une mesu­re, l’AI Office peut ent­amer un dia­lo­gue struc­tu­ré avec le four­nis­seur du modè­le d’AI à usa­ge général.

3. Si, au cours du dia­lo­gue struc­tu­ré visé au para­gra­phe 2, le four­nis­seur du modè­le d’AI à voca­ti­on géné­ra­le pré­sen­tant un ris­que sys­té­mi­que s’en­ga­ge à mett­re en œuvre des mesu­res d’at­té­nua­ti­on pour trai­ter un ris­que sys­té­mi­que au niveau de l’U­ni­on, la Com­mis­si­on peut, par décis­i­on, rend­re ces enga­ge­ments con­traignants et décla­rer qu’il n’y a plus lieu d’agir.

Artic­le 94 Droits pro­cé­du­raux des opé­ra­teurs éco­no­mi­ques du modè­le d’IA à usa­ge général

L’ar­tic­le 18 du règle­ment (UE) 2019/1020 s’ap­pli­que muta­tis mut­an­dis aux four­nis­seurs du modè­le d’IA à usa­ge géné­ral, sans pré­ju­di­ce des droits pro­cé­du­raux plus spé­ci­fi­ques pré­vus par le pré­sent règlement.

Cha­pit­re X Codes de con­duite et lignes directrices

Artic­le 95 Codes de con­duite pour l’ap­pli­ca­ti­on volon­tai­re d’e­xi­gen­ces spécifiques

1. L’AI Office et les États mem­bres encou­r­agent et faci­li­tent l’é­la­bo­ra­ti­on de codes de con­duite, y com­pris de méca­nis­mes de gou­ver­nan­ce con­ne­xes, visa­nt à pro­mou­voir l’ap­pli­ca­ti­on volon­tai­re aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le, aut­res que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, de tout ou par­tie des exi­gen­ces énon­cées à la sec­tion 2 du cha­pit­re III, en tenant comp­te des solu­ti­ons tech­ni­ques dis­po­ni­bles et des meil­leu­res pra­ti­ques du sec­teur per­met­tant l’ap­pli­ca­ti­on de ces exigences.

2. L’AI Office et les États mem­bres faci­li­tent l’é­la­bo­ra­ti­on de codes de con­duite con­cer­nant l’ap­pli­ca­ti­on volon­tai­re, y com­pris par les déployeurs, d’e­xi­gen­ces spé­ci­fi­ques à tous les systè­mes d’IA, sur la base d’ob­jec­tifs clairs et d’in­di­ca­teurs de per­for­mance clés per­met­tant de mesurer la réa­li­sa­ti­on de ces objec­tifs, y com­pris des élé­ments tels que, mais pas exclusivement

(a) les élé­ments appli­ca­bles pré­vus dans les lignes direc­tri­ces éthi­ques de l’U­ni­on pour une IA de confiance ;

(b) éva­luer et mini­mi­ser l’im­pact des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sur la dura­bi­li­té envi­ron­ne­men­ta­le, y com­pris en ce qui con­cer­ne la pro­gram­ma­ti­on à fai­ble con­som­ma­ti­on d’é­ner­gie et les tech­ni­ques pour la con­cep­ti­on, la for­ma­ti­on et l’uti­li­sa­ti­on effi­caces de l’in­tel­li­gence artificielle ;

(c) pro­mou­voir l’al­pha­bé­ti­sa­ti­on en matiè­re d’IA, en par­ti­cu­lier cel­le des per­son­nes impli­quées dans le déve­lo­p­pe­ment, le fonc­tion­ne­ment et l’uti­li­sa­ti­on de l’IA ;

(d) faci­li­ter une con­cep­ti­on inclu­si­ve et diver­si­fi­ée des systè­mes d’IA, notam­ment par la mise en place d’é­quipes de déve­lo­p­pe­ment inclu­si­ves et diver­si­fi­ées et la pro­mo­ti­on de la par­ti­ci­pa­ti­on des par­ties pren­an­tes à ce processus ;

(e) éva­luer et pré­ve­nir l’im­pact néga­tif des systè­mes d’AI sur les per­son­nes ou les grou­pes de per­son­nes vul­né­ra­bles, y com­pris en ce qui con­cer­ne l’ac­ce­s­si­bi­li­té pour les per­son­nes han­di­ca­pées, ain­si que sur l’é­ga­li­té des sexes.

3. Les codes de con­duite peu­vent être éla­bo­rés par des four­nis­seurs ou des déployeurs indi­vi­du­els de systè­mes d’in­tel­li­gence arti­fi­ci­el­le ou par des orga­ni­sa­ti­ons les repré­sen­tant, ou par les deux, y com­pris avec la par­ti­ci­pa­ti­on de tou­te par­tie pren­an­te inté­res­sée et de ses orga­ni­sa­ti­ons repré­sen­ta­ti­ves, y com­pris les orga­ni­sa­ti­ons de la socié­té civi­le et le mon­de uni­ver­si­taire. Les codes de con­duite peu­vent cou­vr­ir un ou plu­sieurs systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en tenant comp­te de la simi­li­tu­de des objec­tifs des systè­mes concernés.

4. L’AI Office et les États mem­bres tien­nent comp­te des inté­rêts et des beso­ins spé­ci­fi­ques des PME, y com­pris des jeu­nes pous­ses, lorsqu’ils encou­r­agent et faci­li­tent l’é­la­bo­ra­ti­on de codes de conduite.

(165) Le déve­lo­p­pe­ment de systè­mes d’IA aut­res que les systè­mes d’IA à haut ris­que con­for­mé­ment aux exi­gen­ces du pré­sent règle­ment peut con­dui­re à une plus gran­de adop­ti­on de l’IA éthi­que et fia­ble dans l’U­ni­on. Les four­nis­seurs de systè­mes d’IA qui ne sont pas à haut ris­que dev­rai­ent être encou­ra­gés à éla­bo­rer des codes de con­duite, y com­pris des méca­nis­mes de gou­ver­nan­ce con­ne­xes, visa­nt à pro­mou­voir l’ap­pli­ca­ti­on volon­tai­re de tout ou par­tie des exi­gen­ces obli­ga­toires appli­ca­bles aux systè­mes d’IA à haut ris­que, adap­tées en fonc­tion de l’ob­jec­tif des systè­mes et du ris­que moind­re impli­qué, et en tenant comp­te des solu­ti­ons tech­ni­ques dis­po­ni­bles et des meil­leu­res pra­ti­ques du sec­teur, tel­les que les car­tes de modè­le et de don­nées. Les four­nis­seurs et, le cas échéant, les déployeurs de tous les systè­mes et modè­les d’IA, à haut ris­que ou non, dev­rai­ent éga­le­ment être encou­ra­gés à appli­quer, sur une base volon­tai­re, des exi­gen­ces sup­p­lé­men­tai­res liées, par exemp­le, aux élé­ments des lignes direc­tri­ces éthi­ques de l’U­ni­on pour une IA de con­fi­ance, à la dura­bi­li­té envi­ron­ne­men­ta­le, aux mesu­res d’é­du­ca­ti­on à l’IA, à la con­cep­ti­on et au déve­lo­p­pe­ment inclu­sifs et diver­si­fi­és des systè­mes d’IA, y com­pris l’at­ten­ti­on por­tée aux per­son­nes vul­né­ra­bles et l’ac­ce­s­si­bi­li­té aux per­son­nes han­di­ca­pées, la par­ti­ci­pa­ti­on des par­ties pren­an­tes avec l’im­pli­ca­ti­on, le cas échéant, des par­ties pren­an­tes per­ti­nen­tes tel­les que les ent­re­pri­ses et les orga­ni­sa­ti­ons de la socié­té civi­le, les uni­ver­si­tés, les orga­nis­mes de recher­che, les syn­di­cats et les orga­ni­sa­ti­ons de pro­tec­tion des con­som­ma­teurs dans la con­cep­ti­on et le déve­lo­p­pe­ment des systè­mes d’IA, et la diver­si­té des équipes de déve­lo­p­pe­ment, y com­pris l’é­qui­lib­re ent­re les sexes. Pour garan­tir l’ef­fi­ca­ci­té des codes de con­duite volon­tai­res, ceux-ci dev­rai­ent être fon­dés sur des objec­tifs clairs et des indi­ca­teurs de per­for­mance clés per­met­tant de mesurer la réa­li­sa­ti­on de ces objec­tifs. Ils dev­rai­ent éga­le­ment être éla­bo­rés de maniè­re inclu­si­ve, le cas échéant, avec la par­ti­ci­pa­ti­on des par­ties pren­an­tes con­cer­nées, tel­les que les ent­re­pri­ses et les orga­ni­sa­ti­ons de la socié­té civi­le, les uni­ver­si­tés, les orga­nis­mes de recher­che, les syn­di­cats et les orga­ni­sa­ti­ons de pro­tec­tion des con­som­ma­teurs. La Com­mis­si­on peut déve­lo­p­per des initia­ti­ves, y com­pris de natu­re sec­to­ri­el­le, pour faci­li­ter l’a­baisse­ment des obs­ta­cles tech­ni­ques qui ent­ra­vent l’é­ch­an­ge trans­fron­ta­lier de don­nées pour le déve­lo­p­pe­ment de l’IA, y com­pris sur l’in­fras­truc­tu­re d’ac­cès aux don­nées, l’in­teropé­ra­bi­li­té sém­an­tique et tech­ni­que des dif­fér­ents types de données.

Artic­le 96 Lignes direc­tri­ces de la Com­mis­si­on con­cer­nant la mise en œuvre du pré­sent règlement

1. La Com­mis­si­on éla­bo­re des lignes direc­tri­ces con­cer­nant la mise en œuvre pra­tique du pré­sent règle­ment, et en particulier

(a) l’ap­pli­ca­ti­on des exi­gen­ces et obli­ga­ti­ons visées aux artic­les 8 à 15 et à l’ar­tic­le 25 ;

(b) les pra­ti­ques inter­di­tes men­ti­onnées à l’ar­tic­le 5 ;

(c) la mise en œuvre pra­tique des dis­po­si­ti­ons rela­ti­ves à la modi­fi­ca­ti­on substantielle ;

(d) la mise en œuvre pra­tique des obli­ga­ti­ons de trans­pa­rence énon­cées à l’ar­tic­le 50 ;

(e) des infor­ma­ti­ons détail­lées sur les rela­ti­ons du pré­sent règle­ment avec la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à l’an­ne­xe I, ain­si qu’a­vec d’aut­res légis­la­ti­ons per­ti­nen­tes de l’U­ni­on, y com­pris en ce qui con­cer­ne la cohé­rence de leur mise en œuvre ;

(f) l’ap­pli­ca­ti­on de la défi­ni­ti­on d’un système d’assu­rance inva­li­di­té tel­le que défi­nie à l’ar­tic­le 3, point (1).

Lors de l’é­la­bo­ra­ti­on de ces lignes direc­tri­ces, la Com­mis­si­on accor­de une atten­ti­on par­ti­cu­liè­re aux beso­ins des PME, y com­pris des jeu­nes pous­ses, des auto­ri­tés publi­ques loca­les et des sec­teurs les plus sus­cep­ti­bles d’êt­re affec­tés par le pré­sent règlement.

Les lignes direc­tri­ces visées au pre­mier ali­néa du pré­sent para­gra­phe tien­nent dûment comp­te de l’é­tat de l’art géné­ra­le­ment recon­nu en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, ain­si que des nor­mes har­mo­ni­sées et des spé­ci­fi­ca­ti­ons com­mu­nes per­ti­nen­tes visées aux artic­les 40 et 41, ou des nor­mes har­mo­ni­sées ou des spé­ci­fi­ca­ti­ons tech­ni­ques éta­b­lies en ver­tu de la légis­la­ti­on d’har­mo­ni­sa­ti­on de l’Union.

2. la deman­de des États mem­bres ou de l’AI Office, ou de sa pro­pre initia­ti­ve, la Com­mis­si­on met à jour les lignes direc­tri­ces pré­cé­dem­ment adop­tées lorsque cela est jugé nécessaire.

Cha­pit­re XI Délé­ga­ti­on de pou­voir et pro­cé­du­re de comité

Artic­le 97 Exer­ci­ce de la délégation

1. Le pou­voir d’ad­op­ter des actes délé­gués est con­fé­ré à la Com­mis­si­on sous réser­ve des con­di­ti­ons énon­cées dans le pré­sent article.

2. Le pou­voir d’ad­op­ter les actes délé­gués visés à l’ar­tic­le 6, para­gra­phes 6 et 7, à l’ar­tic­le 7, para­gra­phes 1 et 3, à l’ar­tic­le 11, para­gra­phe 3, à l’ar­tic­le 43, para­gra­phes 5 et 6, à l’ar­tic­le 47, para­gra­phe 5, à l’ar­tic­le 51, para­gra­phe 3, à l’ar­tic­le 52, para­gra­phe 4, et à l’ar­tic­le 53, para­gra­phes 5 et 6, est con­fé­ré à la Com­mis­si­on pour une péri­ode de cinq ans à comp­ter du … [date d’en­trée en vigueur du pré­sent règle­ment]. La Com­mis­si­on éta­blit un rap­port sur la délé­ga­ti­on de pou­voir au plus tard neuf mois avant la fin de la péri­ode de cinq ans. La délé­ga­ti­on de pou­voir peut être pro­ro­gée taci­te­ment pour des péri­odes de durée iden­tique, sauf si le Par­le­ment euro­pé­en ou le Con­seil s’op­po­se à cet­te pro­ro­ga­ti­on au plus tard trois mois avant la fin de chaque période.

3. La délé­ga­ti­on de pou­voir visée à l’ar­tic­le 6, para­gra­phes 6 et 7, à l’ar­tic­le 7, para­gra­phes 1 et 3, à l’ar­tic­le 11, para­gra­phe 3, à l’ar­tic­le 43, para­gra­phes 5 et 6, à l’ar­tic­le 47, para­gra­phe 5, à l’ar­tic­le 51, para­gra­phe 3, à l’ar­tic­le 52, para­gra­phe 4, et à l’ar­tic­le 53, para­gra­phes 5 et 6, peut être révo­quée à tout moment par le Par­le­ment euro­pé­en ou par le Con­seil. Une décis­i­on de révo­ca­ti­on met fin à la délé­ga­ti­on de pou­voir indi­quée dans cet­te décis­i­on. Elle prend effet le len­de­main de sa publi­ca­ti­on au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne ou à une date ulté­ri­eu­re pré­cis­ée dans celui-ci. Elle n’af­fec­te pas la vali­di­té des actes délé­gués déjà en vigueur.

4. Avant d’ad­op­ter un acte délé­gué, la Com­mis­si­on con­sul­te des experts dési­gnés par chaque État membre, con­for­mé­ment aux prin­cipes énon­cés dans l’ac­cord inter­in­sti­tu­ti­on­nel du 13 avril 2016 sur l’a­mé­lio­ra­ti­on de la législation.

5. Dès qu’el­le adop­te un acte délé­gué, la Com­mis­si­on le noti­fie simul­ta­né­ment au Par­le­ment euro­pé­en et au Conseil.

6. Tout acte délé­gué adop­té en ver­tu des artic­les 6(6) ou (7), 7(1) ou (3), 11(3), 43(5) ou (6), 47(5), 51(3), L’ar­tic­le 52(4) ou l’ar­tic­le 53(5) ou (6) n’ent­re en vigueur que si aucu­ne objec­tion n’a été for­mulée par le Par­le­ment euro­pé­en ou le Con­seil dans un délai de trois mois à comp­ter de la noti­fi­ca­ti­on de cet acte au Par­le­ment euro­pé­en et au Con­seil ou si, avant l’ex­pi­ra­ti­on de ce délai, le Par­le­ment euro­pé­en et le Con­seil ont tous deux infor­mé la Com­mis­si­on de leur inten­ti­on de ne pas s’y oppo­ser. Ce délai est pro­ro­gé de trois mois à l’initia­ti­ve du Par­le­ment euro­pé­en ou du Conseil.

(173) Afin de garan­tir que le cad­re régle­men­tai­re pui­s­se être adap­té si néces­saire, le pou­voir d’ad­op­ter des actes con­for­mé­ment à l’ar­tic­le 290 du TFEU dev­rait être délé­gué à la Com­mis­si­on pour modi­fier les con­di­ti­ons dans les­quel­les un système IA n’est pas con­sidé­ré com­me pré­sen­tant un ris­que éle­vé, la liste des systè­mes IA à haut ris­que, les dis­po­si­ti­ons rela­ti­ves à la docu­men­ta­ti­on tech­ni­que, le con­te­nu de la décla­ra­ti­on UE de con­for­mi­té et les dis­po­si­ti­ons rela­ti­ves aux pro­cé­du­res d’éva­lua­ti­on de la con­for­mi­té, les dis­po­si­ti­ons éta­blis­sant les systè­mes d’IA à haut ris­que aux­quels la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té fon­dée sur l’éva­lua­ti­on du système de gesti­on de la qua­li­té et l’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que dev­rait s’ap­pli­quer, le seuil, les critères et les indi­ca­teurs, y com­pris en com­plé­tant ces critères et indi­ca­teurs, dans les règles de clas­si­fi­ca­ti­on des modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, les critères de dési­gna­ti­on des modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que, la docu­men­ta­ti­on tech­ni­que pour les four­nis­seurs de modè­les d’IA à usa­ge géné­ral et les infor­ma­ti­ons de trans­pa­rence pour les four­nis­seurs de modè­les d’IA à usa­ge géné­ral. Il est par­ti­cu­liè­re­ment important que la Com­mis­si­on procè­de à des con­sul­ta­ti­ons appro­priées au cours de ses travaux pré­pa­ra­toires, y com­pris au niveau des experts, et que ces con­sul­ta­ti­ons soi­ent menées con­for­mé­ment aux prin­cipes énon­cés dans l’ac­cord inter­in­sti­tu­ti­on­nel du 13 avril 2016 sur l’a­mé­lio­ra­ti­on de la légis­la­ti­on . En par­ti­cu­lier, afin d’assurer une par­ti­ci­pa­ti­on éga­le à la pré­pa­ra­ti­on des actes délé­gués, le Par­le­ment euro­pé­en et le Con­seil reçoi­vent tous les docu­ments en même temps que les experts des États mem­bres et leurs experts ont sys­té­ma­ti­quement accès aux réuni­ons des grou­pes d’ex­perts de la Com­mis­si­on trai­tant de la pré­pa­ra­ti­on des actes délégués.

(175) Afin d’assurer des con­di­ti­ons uni­for­mes de mise en œuvre du pré­sent règle­ment, il con­vi­ent d’at­tri­buer des pou­voirs d’exé­cu­ti­on à la Com­mis­si­on. Il con­vi­ent que ces pou­voirs soi­ent exer­cés con­for­mé­ment au règle­ment (UE) no 182/2011 du Par­le­ment euro­pé­en et du Conseil.

Artic­le 98 Pro­cé­du­re du comité

1. La Com­mis­si­on est assi­s­tée par un comi­té. Ce comi­té est un comi­té au sens du règle­ment (UE) n° 182/2011.

2. Lorsqu’il est fait réfé­rence au pré­sent para­gra­phe, l’ar­tic­le 5 du règle­ment (UE) no 182/2011 s’applique.

Cha­pit­re XII Pénalités

Artic­le 99 Pénalités

1. Con­for­mé­ment aux con­di­ti­ons énon­cées dans le pré­sent règle­ment, les États mem­bres éta­blis­sent les règles rela­ti­ves aux sanc­tions et aut­res mesu­res d’exé­cu­ti­on, qui peu­vent éga­le­ment com­prend­re des aver­tis­se­ments et des mesu­res non pécu­ni­ai­res, appli­ca­bles aux vio­la­ti­ons du pré­sent règle­ment par les opé­ra­teurs, et pren­nent tou­tes les mesu­res néces­saires pour garan­tir leur mise en œuvre cor­rec­te et effec­ti­ve, en tenant comp­te des lignes direc­tri­ces éta­b­lies par la Com­mis­si­on con­for­mé­ment à l’ar­tic­le 96. Les sanc­tions pré­vues sont effec­ti­ves, pro­por­ti­onnées et dissua­si­ves. Elles tien­nent comp­te des inté­rêts des PME, y com­pris des jeu­nes pous­ses, et de leur via­bi­li­té économique.

2. Les États mem­bres noti­fi­ent à la Com­mis­si­on, sans délai et au plus tard à la date d’en­trée en vigueur, les règles rela­ti­ves aux sanc­tions et aux aut­res mesu­res d’exé­cu­ti­on visées au para­gra­phe 1 et l’in­for­ment sans délai de tou­te modi­fi­ca­ti­on ulté­ri­eu­re les concernant.

3. Le non-respect de l’in­ter­dic­tion des pra­ti­ques d’i­ni­tiés visée à l’ar­tic­le 5 est pas­si­ble d’a­men­des admi­ni­stra­ti­ves pou­vant aller jus­qu’à 35 000 000 EUR ou, si le cont­re­venant est une ent­re­pri­se, jus­qu’à 7 % de son chif­fre d’af­fai­res annu­el mon­di­al total pour l’an­née finan­ciè­re pré­cé­den­te, le mon­tant le plus éle­vé étant retenu.

4. Le non-respect de l’u­ne quel­con­que des dis­po­si­ti­ons sui­van­tes con­cer­nant les opé­ra­teurs ou les orga­nis­mes noti­fi­és, aut­res que ceux visés aux artic­les 5 , est pas­si­ble d’u­ne amen­de admi­ni­stra­ti­ve pou­vant att­eind­re 15 000 000 EUR ou, si le cont­re­venant est une ent­re­pri­se, 3 % de son chif­fre d’af­fai­res annu­el mon­di­al total pour l’an­née finan­ciè­re pré­cé­den­te, le mon­tant le plus éle­vé étant retenu :

(a) obli­ga­ti­ons des four­nis­seurs con­for­mé­ment à l’ar­tic­le 16 ;

(b) obli­ga­ti­ons des repré­sen­tants auto­ri­sés con­for­mé­ment à l’ar­tic­le 22 ;

(c) obli­ga­ti­ons des impor­ta­teurs en ver­tu de l’ar­tic­le 23 ;

(d) obli­ga­ti­ons des dis­tri­bu­teurs con­for­mé­ment à l’ar­tic­le 24 ;

(e) obli­ga­ti­ons des tra­vail­leurs dét­a­chés con­for­mé­ment à l’ar­tic­le 26 ;

(f) les exi­gen­ces et obli­ga­ti­ons des orga­nis­mes noti­fi­és en ver­tu de l’ar­tic­le 31, de l’ar­tic­le 33, para­gra­phes 1, 3 et 4, ou de l’ar­tic­le 34 ;

(g) des obli­ga­ti­ons de trans­pa­rence pour les four­nis­seurs et les déployeurs, con­for­mé­ment à l’ar­tic­le 50.

5. La four­ni­tu­re d’in­for­ma­ti­ons inexac­tes, incom­plè­tes ou déna­tu­rées aux orga­nis­mes noti­fi­és ou aux auto­ri­tés natio­na­les com­pé­ten­tes en répon­se à une deman­de est pas­si­ble d’u­ne amen­de admi­ni­stra­ti­ve pou­vant aller jus­qu’à 7 500 000 EUR ou, si le cont­re­venant est une ent­re­pri­se, jus­qu’à 1 % de son chif­fre d’af­fai­res annu­el mon­di­al total pour l’e­xer­ci­ce finan­cier pré­cé­dent, le mon­tant le plus éle­vé étant retenu.

6. Dans le cas des PME, y com­pris des jeu­nes pous­ses, tou­te péna­li­té visée au pré­sent artic­le est éga­le ou supé­ri­eu­re au pour­cen­ta­ge ou au mon­tant visé aux para­gra­phes 3, 4 et 5, le moins éle­vé de ces deux mon­tants étant retenu.

Lorsqu’il est déci­dé d’in­f­li­ger une sanc­tion admi­ni­stra­ti­ve et lorsqu’il est déci­dé du mon­tant de la sanc­tion admi­ni­stra­ti­ve dans chaque cas indi­vi­du­el, il est tenu comp­te de tou­tes les cir­con­stances per­ti­nen­tes de la situa­ti­on spé­ci­fi­que et, le cas échéant, les élé­ments sui­vants sont pris en considération :

(a) la natu­re, la gra­vi­té et la durée de l’in­frac­tion et de ses con­sé­quen­ces, en tenant comp­te de la fina­li­té du système d’in­dem­ni­sa­ti­on, ain­si que, le cas échéant, du nombre de per­son­nes affec­tées et du niveau de pré­ju­di­ce subi par celles-ci ;

(b) si des amen­des admi­ni­stra­ti­ves ont déjà été appli­quées par d’aut­res auto­ri­tés de sur­veil­lan­ce du mar­ché au même opé­ra­teur pour la même infraction ;

(c) si des amen­des admi­ni­stra­ti­ves ont déjà été appli­quées par d’aut­res auto­ri­tés au même opé­ra­teur pour des infrac­tions à d’aut­res légis­la­ti­ons de l’U­ni­on ou natio­na­les, lorsque ces infrac­tions résul­tent de la même acti­vi­té ou omis­si­on con­sti­tu­ant une infrac­tion per­ti­nen­te au pré­sent règlement ;

(d) la tail­le, le chif­fre d’af­fai­res annu­el et la part de mar­ché de l’opé­ra­teur com­met­tant l’infraction ;

(e) tout aut­re fac­teur d’ag­grava­ti­on ou d’at­té­nua­ti­on appli­ca­ble aux cir­con­stances de l’e­spè­ce, tel que les avan­ta­ges finan­ciers obte­nus ou les per­tes subies, direc­te­ment ou indi­rec­te­ment, du fait de l’infraction ;

(f) le degré de coopé­ra­ti­on avec les auto­ri­tés natio­na­les com­pé­ten­tes, en vue de remé­dier à l’in­frac­tion et d’at­té­nuer les éven­tuels effets néga­tifs de l’infraction ;

(g) le degré de responsa­bi­li­té de l’ex­plo­itant, comp­te tenu des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les qu’il met en œuvre ;

(h) la maniè­re dont l’in­frac­tion a été por­tée à la con­nais­sance des auto­ri­tés natio­na­les com­pé­ten­tes, en par­ti­cu­lier si, et dans quel­le mesu­re, l’opé­ra­teur a noti­fié l’infraction ;

(i) le carac­tère inten­ti­on­nel ou invo­lon­tai­re de l’infraction ;

(j) tou­te action ent­re­pri­se par l’opé­ra­teur pour atté­nuer les dom­mages subis par les per­son­nes concernées.

8. Chaque État membre éta­blit des règles sur la mesu­re dans laquel­le des sanc­tions admi­ni­stra­ti­ves peu­vent être impo­sées aux auto­ri­tés publi­ques et aux orga­nis­mes étab­lis dans cet État membre.

9. En fonc­tion du système juri­di­que des États mem­bres, les règles rela­ti­ves aux sanc­tions admi­ni­stra­ti­ves peu­vent être appli­quées de maniè­re à ce que les sanc­tions soi­ent impo­sées par les juri­dic­tions natio­na­les com­pé­ten­tes ou par d’aut­res orga­nis­mes, com­me cela est le cas dans ces États mem­bres. L’ap­pli­ca­ti­on de ces règles dans ces États mem­bres a un effet équivalent.

10. L’e­xer­ci­ce des pou­voirs visés au pré­sent artic­le est sub­or­don­né à des garan­ties pro­cé­du­ra­les appro­priées, con­for­mé­ment au droit de l’U­ni­on et au droit natio­nal, y com­pris des voies de recours judi­ciai­res effec­ti­ves et un procès équitable.

11. Les États mem­bres font rap­port, sur une base annuel­le, à la Com­mis­si­on sur les sanc­tions admi­ni­stra­ti­ves qu’ils ont inf­li­gées au cours de l’an­née, con­for­mé­ment au pré­sent artic­le, et sur tou­te pro­cé­du­re judi­ciai­re ou con­ten­ti­eu­se y afférente.

(168) Le respect du pré­sent règle­ment dev­rait être assu­ré par l’im­po­si­ti­on de sanc­tions et d’aut­res mesu­res d’exé­cu­ti­on. Les États mem­bres dev­rai­ent prend­re tou­tes les mesu­res néces­saires pour assurer la mise en œuvre des dis­po­si­ti­ons du pré­sent règle­ment, notam­ment en pré­voyant des sanc­tions effec­ti­ves, pro­por­ti­onnées et dissua­si­ves en cas d’in­frac­tion, et respec­ter le prin­ci­pe ne bis in idem. Afin de ren­forcer et d’har­mo­ni­s­er les sanc­tions admi­ni­stra­ti­ves en cas d’in­frac­tion au pré­sent règle­ment, il con­vi­ent de fixer des limi­tes supé­ri­eu­res pour la fix­a­ti­on des amen­des admi­ni­stra­ti­ves appli­ca­bles à cer­tai­nes infrac­tions spé­ci­fi­ques. Lors de l’éva­lua­ti­on du mon­tant des sanc­tions, les États mem­bres dev­rai­ent, dans chaque cas indi­vi­du­el, tenir comp­te de tou­tes les cir­con­stances per­ti­nen­tes de la situa­ti­on spé­ci­fi­que, en accordant une atten­ti­on par­ti­cu­liè­re à la natu­re, à la gra­vi­té et à la durée de l’in­frac­tion et de ses con­sé­quen­ces, ain­si qu’à la tail­le du pre­sta­tai­re, en par­ti­cu­lier si le pre­sta­tai­re est une PME, y com­pris une start-up. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées dev­rait avoir le pou­voir d’im­po­ser des sanc­tions aux insti­tu­ti­ons, agen­ces et orga­nis­mes de l’U­ni­on rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règlement.

Artic­le 100 Taxes admi­ni­stra­ti­ves sur les insti­tu­ti­ons, orga­nes, offices et agen­ces de l’Union

1. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées peut impo­ser des sanc­tions admi­ni­stra­ti­ves aux insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on rele­vant du champ d’ap­pli­ca­ti­on du pré­sent règle­ment. Lors de la décis­i­on d’in­f­li­ger ou non une sanc­tion admi­ni­stra­ti­ve et de la déter­mi­na­ti­on du mon­tant de la sanc­tion admi­ni­stra­ti­ve dans chaque cas indi­vi­du­el, il con­vi­ent de tenir comp­te de tou­tes les cir­con­stances per­ti­nen­tes de la situa­ti­on spé­ci­fi­que et d’ac­cor­der une atten­ti­on par­ti­cu­liè­re aux élé­ments suivants :

(a) la natu­re, la gra­vi­té et la durée de l’in­frac­tion et de ses con­sé­quen­ces, en tenant comp­te de la fina­li­té du système d’assu­rance inva­li­di­té con­cer­né, ain­si que, le cas échéant, du nombre de per­son­nes affec­tées et du niveau de pré­ju­di­ce subi par celles-ci ;

(b) le degré de responsa­bi­li­té de l’in­sti­tu­ti­on, de l’or­ga­ne, du bureau ou de l’a­gence de l’U­ni­on, en tenant comp­te des mesu­res tech­ni­ques et orga­ni­sa­ti­on­nel­les mises en œuvre par ceux-ci ;

(c) tou­te action ent­re­pri­se par l’in­sti­tu­ti­on, l’or­ga­ne, le bureau ou l’a­gence de l’U­ni­on pour atté­nuer les dom­mages subis par les per­son­nes affectées ;

(d) le degré de coopé­ra­ti­on avec le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées en vue de remé­dier à l’in­frac­tion et d’en atté­nuer les éven­tuels effets néga­tifs, y com­pris le respect de tou­te mesu­re pré­cé­dem­ment ordon­née par le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées à l’en­cont­re de l’in­sti­tu­ti­on, de l’or­ga­ne, du bureau ou de l’a­gence de l’U­ni­on concerné(e) en ce qui con­cer­ne la même question ;

(e) tou­te infrac­tion simi­lai­re com­mi­se pré­cé­dem­ment par l’in­sti­tu­ti­on, l’or­ga­ne, le bureau ou l’a­gence de l’Union ;

(f) la maniè­re dont l’in­frac­tion a été por­tée à la con­nais­sance du Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées, en par­ti­cu­lier si, et dans quel­le mesu­re, l’in­sti­tu­ti­on, l’or­ga­ne, le bureau ou l’a­gence de l’U­ni­on a noti­fié l’infraction ;

(g) le bud­get annu­el de l’in­sti­tu­ti­on, de l’or­ga­ne, du bureau ou de l’a­gence de l’Union.

2. Le non-respect de l’in­ter­dic­tion des pra­ti­ques d’IA visée à l’ar­tic­le 5 est pas­si­ble d’a­men­des admi­ni­stra­ti­ves pou­vant aller jus­qu’à 1 500 000 euros.

3. La non-con­for­mi­té du système IA à tou­te exi­gence ou obli­ga­ti­on pré­vue par le pré­sent règle­ment, aut­re que cel­les énon­cées à l’ar­tic­le 5 , est pas­si­ble d’u­ne amen­de admi­ni­stra­ti­ve pou­vant att­eind­re 750 000 EUR.

4. Avant de prend­re des décis­i­ons en ver­tu du pré­sent artic­le, le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées don­ne à l’in­sti­tu­ti­on, l’or­ga­ne, le bureau ou l’a­gence de l’U­ni­on qui fait l’ob­jet de la pro­cé­du­re menée par le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées la pos­si­bi­li­té d’êt­re enten­du sur la que­sti­on rela­ti­ve à l’in­frac­tion éven­tu­el­le. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées ne fon­de ses décis­i­ons que sur des élé­ments et des cir­con­stances sur les­quels les par­ties con­cer­nées ont pu for­mu­ler des obser­va­tions. Les plaignants, le cas échéant, doi­vent être étroi­te­ment asso­ciés à la procédure.

5. Les droits de la défen­se des par­ties con­cer­nées doi­vent être plei­ne­ment respec­tés dans le cad­re de la pro­cé­du­re. Elles ont le droit d’ac­cé­der au dos­sier du Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées, sous réser­ve de l’in­té­rêt légiti­me des per­son­nes ou des ent­re­pri­ses à la pro­tec­tion de leurs don­nées à carac­tère per­son­nel ou de leurs secrets d’affaires.

6. Les fonds coll­ec­tés par l’im­po­si­ti­on des taxes pré­vues au pré­sent artic­le con­tri­buent au bud­get géné­ral de l’U­ni­on. Ces recet­tes ne doi­vent pas affec­ter le fonc­tion­ne­ment effec­tif de l’in­sti­tu­ti­on, de l’or­ga­ne, du bureau ou de l’a­gence de l’Union.

7. Le Con­trô­leur euro­pé­en de la pro­tec­tion des don­nées noti­fie, sur une base annuel­le, à la Com­mis­si­on les sanc­tions admi­ni­stra­ti­ves qu’il a impo­sées en ver­tu du pré­sent artic­le et tou­te pro­cé­du­re judi­ciai­re ou con­ten­ti­eu­se qu’il a engagée.

(169) Le respect des obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral en ver­tu du pré­sent règle­ment doit pou­voir être impo­sé, ent­re aut­res, au moy­en d’a­men­des. À cet­te fin, des niveaux de sanc­tion appro­priés dev­rai­ent éga­le­ment être fixés en cas de non-respect de ces obli­ga­ti­ons, y com­pris en cas de non-respect des mesu­res deman­dées par la Com­mis­si­on con­for­mé­ment au pré­sent règle­ment, sous réser­ve de péri­odes de limi­ta­ti­on appro­priées con­for­mé­ment au prin­ci­pe de pro­por­ti­on­na­li­té. Tou­tes les décis­i­ons pri­ses par la Com­mis­si­on en ver­tu du pré­sent règle­ment sont sou­mi­ses à l’ex­amen de la Cour de justi­ce de l’U­ni­on euro­pé­en­ne con­for­mé­ment au TFEU, y com­pris la com­pé­tence illi­mi­tée de la Cour de justi­ce en ce qui con­cer­ne les sanc­tions pré­vues à l’ar­tic­le 261 du TFEU.

Artic­le 101 Fina­li­tés pour les four­nis­seurs de modè­les d’IA à usa­ge général

1. La Com­mis­si­on peut impo­ser aux four­nis­seurs de modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral des amen­des ne dépas­sant pas 3 % de leur chif­fre d’af­fai­res mon­di­al annu­el total pour l’an­née finan­ciè­re pré­cé­den­te ou 15 000 000 EUR, le mon­tant le plus éle­vé étant rete­nu, si la Com­mis­si­on con­sta­te que le four­nis­seur a agi inten­ti­on­nel­le­ment ou par négligence :

(a) a enfreint les dis­po­si­ti­ons per­ti­nen­tes du pré­sent règlement ;

(b) n’a pas réus­si à répond­re à une deman­de de docu­ment ou d’in­for­ma­ti­on con­for­mé­ment à

Artic­le 91, ou a four­ni des infor­ma­ti­ons incor­rec­tes, incom­plè­tes ou mensongères ;

(c) n’a pas réus­si à se con­for­mer à une mesu­re deman­dée au tit­re de l’ar­tic­le 93 ;

(d) n’a pas mis à la dis­po­si­ti­on de la Com­mis­si­on l’ac­cès au modè­le d’AI à usa­ge géné­ral ou au modè­le d’AI à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que en vue de pro­cé­der à une éva­lua­ti­on con­for­mé­ment à l’ar­tic­le 92.

Pour fixer le mon­tant de la sanc­tion pécu­ni­ai­re ou péri­odi­que, il con­vi­ent de tenir comp­te de la natu­re, de la gra­vi­té et de la durée de l’in­frac­tion, en respec­tant les prin­cipes de pro­por­ti­on­na­li­té et d’a­dé­qua­ti­on. La Com­mis­si­on tient éga­le­ment comp­te des enga­ge­ments pris con­for­mé­ment à l’ar­tic­le 93, para­gra­phe 3, ou dans les codes de pra­tique per­tin­ents con­for­mé­ment à l’ar­tic­le 56.

2. Avant d’ad­op­ter la décis­i­on visée au para­gra­phe 1, la Com­mis­si­on com­mu­ni­que ses con­clu­si­ons pré­li­mi­n­aires au four­nis­seur du modè­le d’IA à usa­ge géné­ral et lui don­ne la pos­si­bi­li­té d’êt­re entendu.

3. Les sanc­tions impo­sées en ver­tu du pré­sent artic­le sont effec­ti­ves, pro­por­ti­onnées et dissuasives.

4. Les infor­ma­ti­ons rela­ti­ves aux sanc­tions impo­sées en ver­tu du pré­sent artic­le sont éga­le­ment com­mu­ni­quées au con­seil d’ad­mi­ni­stra­ti­on en tant que de besoin.

5. La Cour de justi­ce de l’U­ni­on euro­pé­en­ne a une com­pé­tence de plei­ne juri­dic­tion pour réex­ami­ner les décis­i­ons de la Com­mis­si­on fix­ant une sanc­tion en ver­tu du pré­sent artic­le. Elle peut annu­ler, rédui­re ou aug­men­ter la sanc­tion infligée.

6. La Com­mis­si­on adop­te des actes d’exé­cu­ti­on con­tenant des dis­po­si­ti­ons détail­lées et des garan­ties pro­cé­du­ra­les pour les pro­cé­du­res en vue de l’ad­op­ti­on éven­tu­el­le de décis­i­ons con­for­mé­ment au para­gra­phe 1 du pré­sent artic­le. Ces actes d’exé­cu­ti­on sont adop­tés con­for­mé­ment à la pro­cé­du­re d’ex­amen visée à l’ar­tic­le 98, para­gra­phe 2.

Cha­pit­re XIII Dis­po­si­ti­ons finales

Artic­le 102 Amen­de­ment au règle­ment (CE) n° 300/2008

l’ar­tic­le 4, para­gra­phe 3, du règle­ment (CE) n° 300/2008, le para­gra­phe sui­vant est ajouté :

Lors de l’ad­op­ti­on de mesu­res détail­lées con­cer­nant les spé­ci­fi­ca­ti­ons tech­ni­ques et les pro­cé­du­res d’ap­pro­ba­ti­on et d’uti­li­sa­ti­on des équi­pe­ments de sécu­ri­té rela­tifs aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil+, il con­vi­ent de tenir comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 103 Amen­de­ment au règle­ment (UE) n° 167/2013

À l’ar­tic­le 17, para­gra­phe 5, du règle­ment (UE) n° 167/2013, le para­gra­phe sui­vant est ajou­té : “Lors de l’ad­op­ti­on d’ac­tes délé­gués en ver­tu du pre­mier para­gra­phe con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil+, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 104 Amen­de­ment au règle­ment (UE) n° 168/2013

À l’ar­tic­le 22, para­gra­phe 5, du règle­ment (UE) n° 168/2013, le para­gra­phe sui­vant est ajou­té : “Lors de l’ad­op­ti­on d’ac­tes délé­gués en ver­tu du pre­mier para­gra­phe con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des com­po­sants de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil+, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 105 Amen­de­ment à la direc­ti­ve 2014/90/UE

l’ar­tic­le 8 de la direc­ti­ve 2014/90/UE, le para­gra­phe sui­vant est ajouté :

5) Pour les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des com­po­sants de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil+, lorsqu’el­le exer­ce ses acti­vi­tés con­for­mé­ment au para­gra­phe 1 et lorsqu’el­le adop­te des spé­ci­fi­ca­ti­ons tech­ni­ques et des nor­mes d’es­sai con­for­mé­ment aux para­gra­phes 2 et 3, la Com­mis­si­on tient comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 106 Amen­de­ment à la direc­ti­ve (UE) 2016/797

l’ar­tic­le 5 de la direc­ti­ve (UE) 2016/797, le para­gra­phe sui­vant est ajouté :

12) Lors de l’ad­op­ti­on des actes délé­gués visés au para­gra­phe 1 et des actes d’exé­cu­ti­on visés au para­gra­phe 11 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil+, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 107 Amen­de­ment au règle­ment (UE) 2018/858

Le para­gra­phe sui­vant est ajou­té à l’ar­tic­le 5 du règle­ment (UE) 2018/858 :

4) lors de l’ad­op­ti­on d’ac­tes délé­gués en ver­tu du para­gra­phe 3 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 108 Amen­de­ments au règle­ment (UE) 2018/1139

Le règle­ment (UE) 2018/1139 est modi­fié com­me suit :

(1) à l’ar­tic­le 17, le para­gra­phe sui­vant est ajouté :

Sans pré­ju­di­ce du para­gra­phe 2, lors de l’ad­op­ti­on des actes d’exé­cu­ti­on visés au para­gra­phe 1 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

  • Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)” ;

(2) à l’ar­tic­le 19, le para­gra­phe sui­vant est ajouté :

4) lors de l’ad­op­ti­on des actes délé­gués visés aux para­gra­phes 1 et 2 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/…++, il est tenu comp­te des exi­gen­ces énon­cées à la sec­tion 2 du cha­pit­re III dudit règlement ;

(3) à l’ar­tic­le 43, le para­gra­phe sui­vant est ajouté :

4. lors de l’ad­op­ti­on des actes d’exé­cu­ti­on visés au para­gra­phe 1 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/…+, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement” ;

(4) à l’ar­tic­le 47, le para­gra­phe sui­vant est ajouté :

3) “Lors de l’ad­op­ti­on d’ac­tes délé­gués en ver­tu des para­gra­phes 1 et 2 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/…+, il est tenu comp­te des exi­gen­ces énon­cées à la sec­tion 2 du cha­pit­re III de ce règlement” ;

(5) à l’ar­tic­le 57, le para­gra­phe sui­vant est ajouté :

Lors de l’ad­op­ti­on de ces actes d’exé­cu­ti­on con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/…+, les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règle­ment doi­vent être pri­ses en compte” ;

(6) à l’ar­tic­le 58, le para­gra­phe sui­vant est ajouté :

3) “Lors de l’ad­op­ti­on d’ac­tes délé­gués en ver­tu des para­gra­phes 1 et 2 con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/…+, il est tenu comp­te des exi­gen­ces énon­cées à la sec­tion 2 du cha­pit­re III de ce règlement”.

Artic­le 109 Amen­de­ment au règle­ment (UE) 2019/2144

l’ar­tic­le 11 du règle­ment (UE) 2019/2144, le para­gra­phe sui­vant est ajouté :

Lors de l’ad­op­ti­on des actes d’exé­cu­ti­on visés au para­gra­phe 2, con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont des élé­ments de sécu­ri­té au sens du règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil, il est tenu comp­te des exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, dudit règlement.

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) no 300/2008, (UE) no 167/2013, (UE) no 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (OJ L, …, ELI : …)”.

Artic­le 110 Amen­de­ment à la direc­ti­ve (UE) 2020/1828

Dans l’an­ne­xe I de la direc­ti­ve (UE) 2020/1828 du Par­le­ment euro­pé­en et du Conseil58 , le point sui­vant est ajouté :

(68) Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil du … + éta­blis­sant des règles har­mo­ni­sées rela­ti­ves à l’in­tel­li­gence arti­fi­ci­el­le et modi­fi­ant les règle­ments (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les direc­ti­ves 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (loi sur l’in­tel­li­gence arti­fi­ci­el­le) (JO L, …, ELI : …)”.

Direc­ti­ve (UE) 2020/1828 du Par­le­ment euro­pé­en et du Con­seil du 25 novembre 2020 rela­ti­ve aux actions repré­sen­ta­ti­ves en matiè­re de pro­tec­tion des inté­rêts coll­ec­tifs des con­som­ma­teurs et portant trans­po­si­ti­on de la direc­ti­ve 2009/22/CE (JO L 409 du 4.12.2020, p. 1).

Artic­le 111 Systè­mes d’IA déjà mis sur le mar­ché ou en ser­vice et modè­les d’IA à usa­ge géné­ral déjà en place

pla­cé sur la marque

1. Sans pré­ju­di­ce de l’ap­pli­ca­ti­on de l’ar­tic­le 5 visé à l’ar­tic­le 113, para­gra­phe 3, point (a), les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui font par­tie inté­gran­te des systè­mes d’in­for­ma­ti­on à gran­de échel­le étab­lis par les actes juri­di­ques énu­mé­rés à l’an­ne­xe X et qui ont été mis sur le mar­ché ou mis en ser­vice avant le … [36 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] sont mis en con­for­mi­té avec le pré­sent règle­ment pour le 31 décembre 2030.

Les exi­gen­ces énon­cées dans le pré­sent règle­ment sont pri­ses en comp­te lors de l’éva­lua­ti­on de chaque système infor­ma­tique à gran­de échel­le éta­b­li par les actes juri­di­ques énu­mé­rés à l’an­ne­xe X pour être mis en œuvre com­me pré­vu dans ces actes juri­di­ques et lorsque ces actes juri­di­ques sont rem­pla­cés ou modifiés.

2. Sans pré­ju­di­ce de l’ap­pli­ca­ti­on de l’ar­tic­le 5 visé à l’ar­tic­le 113, para­gra­phe 3, point a), le pré­sent règle­ment s’ap­pli­que aux explo­itants de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que, aut­res que les systè­mes visés au para­gra­phe 1 du pré­sent artic­le, qui ont été mis sur le mar­ché ou mis en ser­vice avant le … [24 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], uni­quement si, à comp­ter de cet­te date, ces systè­mes sont sou­mis à des modi­fi­ca­ti­ons importan­tes de leur con­cep­ti­on. Dans tous les cas, les four­nis­seurs et les déployeurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que desti­nés à être uti­li­sés par les pou­voirs publics pren­nent les mesu­res néces­saires pour se con­for­mer aux exi­gen­ces et aux obli­ga­ti­ons du pré­sent règle­ment d’i­ci …[ six ans à comp­ter de la date d’en­trée en vigueur du pré­sent règlement].

3. Les four­nis­seurs de modè­les d’IA à usa­ge géné­ral qui ont été pla­cés sur le mar­ché avant …

[12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] prend les mesu­res néces­saires pour se con­for­mer aux obli­ga­ti­ons énon­cées dans le pré­sent règle­ment au plus tard le … [36 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment].

Artic­le 112 Éva­lua­ti­on et examen

1. La Com­mis­si­on éva­lue la néces­si­té de modi­fier la liste figu­rant à l’an­ne­xe III et la liste des pra­ti­ques inter­di­tes en matiè­re d’al­cool pré­vues à l’ar­tic­le 5, une fois par an à comp­ter de l’en­trée en vigueur du pré­sent règle­ment et jus­qu’à la fin de la péri­ode de délé­ga­ti­on de pou­voir pré­vue à l’ar­tic­le 97. La Com­mis­si­on pré­sen­te les résul­tats de cet­te éva­lua­ti­on au Par­le­ment euro­pé­en et au Conseil.

2. Au … [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les quat­re ans par la suite, la Com­mis­si­on éva­lue et fait rap­port au Par­le­ment euro­pé­en et au Con­seil sur ce qui suit :

(a) la néces­si­té d’ap­por­ter des modi­fi­ca­ti­ons à l’ex­ten­si­on des inti­tulés de domain­es exi­stants ou à l’a­jout de nou­veaux inti­tulés de domain­es à l’an­ne­xe III ;

(b) les modi­fi­ca­ti­ons appor­tées à la liste des systè­mes d’assu­rance inva­li­di­té néces­si­tant des mesu­res de trans­pa­rence sup­p­lé­men­tai­res à l’ar­tic­le 50 ;

(c) amend­ments enhan­cing the effec­ti­ve­ness of the super­vi­si­on and gover­nan­ce system.

3. Par … [cinq ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les quat­re ans

ensuite, la Com­mis­si­on sou­met au Par­le­ment euro­pé­en et au Con­seil un rap­port sur l’éva­lua­ti­on et le réex­amen du pré­sent règle­ment. Ce rap­port com­prend une éva­lua­ti­on de la struc­tu­re de mise en œuvre et de la néces­si­té éven­tu­el­le d’u­ne agence de l’U­ni­on pour remé­dier aux éven­tu­el­les lacu­nes iden­ti­fi­ées. Sur la base de ses con­clu­si­ons, ce rap­port est accom­pa­gné, le cas échéant, d’u­ne pro­po­si­ti­on de modi­fi­ca­ti­on du pré­sent règle­ment. Les rap­ports sont ren­dus publics.

4. Les rap­ports visés au para­gra­phe 2 accor­dent une atten­ti­on par­ti­cu­liè­re aux points suivants :

(a) l’é­tat des res­sour­ces finan­ciè­res, tech­ni­ques et humain­es des auto­ri­tés natio­na­les com­pé­ten­tes afin de leur per­mett­re de s’ac­quit­ter effi­ca­ce­ment des tâches qui leur sont assi­gnées en ver­tu du pré­sent règlement ;

(b) l’é­tat des sanc­tions, en par­ti­cu­lier des sanc­tions admi­ni­stra­ti­ves visées à l’ar­tic­le 99, para­gra­phe 1, appli­quées par les États mem­bres en cas de vio­la­ti­on du pré­sent règlement ;

(c) adop­té des nor­mes har­mo­ni­sées et des spé­ci­fi­ca­ti­ons com­mu­nes éla­bo­rées à l’ap­pui du pré­sent règlement ;

(d) le nombre d’entre­pri­ses qui ent­rent sur le mar­ché après l’en­trée en appli­ca­ti­on du pré­sent règle­ment, et com­bien d’ent­re elles sont des PME.

5. Au plus tard le … [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], la Com­mis­si­on éva­lue le fonc­tion­ne­ment de l’Of­fice AI, déter­mi­ne si l’Of­fice AI a été doté de pou­voirs et de com­pé­ten­ces suf­fi­sants pour s’ac­quit­ter de ses tâches et s’il serait per­ti­nent et néces­saire, pour la bon­ne mise en œuvre et l’ap­pli­ca­ti­on du pré­sent règle­ment, d’a­mé­lio­rer l’Of­fice AI et ses com­pé­ten­ces en matiè­re d’exé­cu­ti­on et d’ac­croît­re ses res­sour­ces. La Com­mis­si­on sou­met un rap­port sur son éva­lua­ti­on au Par­le­ment euro­pé­en et au Conseil.

6. Au plus tard [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les quat­re ans par la suite, la Com­mis­si­on pré­sen­te un rap­port sur l’ex­amen des pro­grès réa­li­sés dans l’é­la­bo­ra­ti­on des nor­mes rela­ti­ves à l’ef­fi­ca­ci­té éner­gé­tique des modè­les d’IA d’u­sa­ge géné­ral, et éva­lue la néces­si­té de mesu­res ou d’ac­tions sup­p­lé­men­tai­res, y com­pris des mesu­res ou des actions con­traignan­tes. Le rap­port est sou­mis au Par­le­ment euro­pé­en et au Con­seil et il est ren­du public.

7. Au … [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les trois ans par la suite, la Com­mis­si­on éva­lue l’im­pact et l’ef­fi­ca­ci­té des codes de con­duite volon­tai­res visa­nt à pro­mou­voir l’ap­pli­ca­ti­on des exi­gen­ces énon­cées à la sec­tion 2 du cha­pit­re III pour les systè­mes d’IA aut­res que les systè­mes d’IA à haut ris­que et, le cas échéant, d’aut­res exi­gen­ces sup­p­lé­men­tai­res pour les systè­mes d’IA aut­res que les systè­mes d’IA à haut ris­que, y com­pris en ce qui con­cer­ne la dura­bi­li­té de l’environnement.

8. Aux fins des para­gra­phes 1 à 7, le Con­seil, les États mem­bres et les auto­ri­tés natio­na­les com­pé­ten­tes four­nis­sent des infor­ma­ti­ons à la Com­mis­si­on à la deman­de de cel­le-ci et sans retard injustifié.

9. Dans l’exé­cu­ti­on des éva­lua­tions et des examens visés aux para­gra­phes 1 à 7, la Com­mis­si­on tient comp­te des posi­ti­ons et des con­clu­si­ons du Con­seil, du Par­le­ment euro­pé­en, du Con­seil et des aut­res orga­nes ou sources concernés.

10. La Com­mis­si­on pré­sen­te, si néces­saire, des pro­po­si­ti­ons appro­priées en vue de modi­fier le pré­sent règle­ment, en tenant comp­te notam­ment de l’é­vo­lu­ti­on des tech­no­lo­gies, de l’in­ci­dence des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sur la san­té et la sécu­ri­té, ain­si que sur les droits fon­da­men­taux, et à la lumiè­re de l’é­tat d’a­vance­ment de la socié­té de l’information.

Pour gui­der les éva­lua­tions et les examens visés aux para­gra­phes 1 à 7 du pré­sent artic­le, l’AI Office s’en­ga­ge à éla­bo­rer une métho­do­lo­gie objec­ti­ve et par­ti­ci­pa­ti­ve pour l’éva­lua­ti­on des niveaux de ris­que sur la base des critères énon­cés dans les artic­les per­tin­ents et de l’in­clu­si­on de nou­veaux systè­mes dans :

(a) la liste éta­b­lie à l’an­ne­xe III, y com­pris l’ex­ten­si­on des en-têtes de zone exi­stants ou l’a­jout de nou­veaux en-têtes de zone dans cet­te annexe ;

(b) the list of pro­hi­bi­ted prac­ti­ces set out in Artic­le 5 ; and

(c) la liste des systè­mes d’assu­rance inva­li­di­té néces­si­tant des mesu­res de trans­pa­rence sup­p­lé­men­tai­res, con­for­mé­ment à l’ar­tic­le 50.

12. Tou­te modi­fi­ca­ti­on du pré­sent règle­ment en ver­tu du para­gra­phe 10, ou des actes délé­gués ou d’exé­cu­ti­on per­tin­ents, con­cer­nant la légis­la­ti­on sec­to­ri­el­le d’har­mo­ni­sa­ti­on de l’U­ni­on énu­mé­rée à la sec­tion B de l’an­ne­xe I, tient comp­te des spé­ci­fi­ci­tés régle­men­tai­res de chaque sec­teur, ain­si que des méca­nis­mes de gou­ver­nan­ce, d’éva­lua­ti­on de la con­for­mi­té et d’ap­pli­ca­ti­on et des auto­ri­tés qui y sont établis.

13. Au plus tard le … [sept ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], la Com­mis­si­on procè­de à une éva­lua­ti­on de l’ap­pli­ca­ti­on du pré­sent règle­ment et pré­sen­te un rap­port à ce sujet au Par­le­ment euro­pé­en, au Con­seil et au Comi­té éco­no­mi­que et social euro­pé­en, en tenant comp­te des pre­miè­res années d’ap­pli­ca­ti­on du pré­sent règle­ment. Sur la base des con­clu­si­ons, ce rap­port est accom­pa­gné, le cas échéant, d’u­ne pro­po­si­ti­on de modi­fi­ca­ti­on du pré­sent règle­ment en ce qui con­cer­ne la struc­tu­re de mise en œuvre et la néces­si­té d’u­ne agence de l’U­ni­on pour remé­dier aux éven­tu­el­les lacu­nes constatées.

(174) Comp­te tenu de l’é­vo­lu­ti­on rapi­de des tech­no­lo­gies et de l’ex­per­ti­se tech­ni­que néces­saire pour appli­quer effi­ca­ce­ment le pré­sent règle­ment, la Com­mis­si­on dev­rait éva­luer et réex­ami­ner le pré­sent règle­ment d’i­ci … [cinq ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les quat­re ans par la suite et fai­re rap­port au Par­le­ment euro­pé­en et au Con­seil. En out­re, comp­te tenu des impli­ca­ti­ons pour le champ d’ap­pli­ca­ti­on du pré­sent règle­ment, la Com­mis­si­on dev­rait pro­cé­der une fois par an à une éva­lua­ti­on de la néces­si­té de modi­fier la liste des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que et la liste des pra­ti­ques inter­di­tes. En out­re, au plus tard le … [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les quat­re ans par la suite, la Com­mis­si­on éva­lue et fait rap­port au Par­le­ment euro­pé­en et au Con­seil sur la néces­si­té de modi­fier la liste des domain­es à haut ris­que figu­rant en tête de l’an­ne­xe du pré­sent règle­ment, les systè­mes d’IA dans le cad­re des obli­ga­ti­ons de trans­pa­rence, l’ef­fi­ca­ci­té du système de sur­veil­lan­ce et de gou­ver­nan­ce et les pro­grès réa­li­sés dans l’é­la­bo­ra­ti­on de liv­ra­bles de nor­ma­li­sa­ti­on sur le déve­lo­p­pe­ment éner­gé­ti­quement effi­cace de modè­les d’IA à usa­ge géné­ral, y com­pris la néces­si­té d’aut­res mesu­res ou actions. Enfin, d’i­ci … [quat­re ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] et tous les trois ans par la suite, la Com­mis­si­on dev­rait éva­luer l’im­pact et l’ef­fi­ca­ci­té des codes de con­duite volon­tai­res visa­nt à pro­mou­voir l’ap­pli­ca­ti­on des exi­gen­ces pré­vues pour les systè­mes d’IA à haut ris­que dans le cas des systè­mes d’IA aut­res que les systè­mes d’IA à haut ris­que et, éven­tu­el­le­ment, d’aut­res exi­gen­ces sup­p­lé­men­tai­res pour ces systè­mes d’IA.

Artic­le 113 Entrée en vigueur et application

Le pré­sent règle­ment ent­re en vigueur le ving­tiè­me jour sui­vant celui de sa publi­ca­ti­on au Jour­nal offi­ci­el de l’U­ni­on européenne.

Il s’ap­pli­que à comp­ter du … [24 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règlement].

Howe­ver :

(a) Les cha­pi­t­res I et II s’ap­pli­quent à comp­ter du … [six mois à comp­ter de la date d’en­trée en vigueur du pré­sent règlement] ;

(b) La sec­tion 4 du cha­pit­re III, le cha­pit­re V, le cha­pit­re VII et le cha­pit­re XII ain­si que l’ar­tic­le 78 s’ap­pli­quent à comp­ter du … [12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], à l’ex­cep­ti­on de l’ar­tic­le 101 ;

(c) L’ar­tic­le 6, para­gra­phe 1, et les obli­ga­ti­ons cor­re­spond­an­tes énon­cées dans le pré­sent règle­ment s’ap­pli­quent à comp­ter du … [36 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règlement].

Le pré­sent règle­ment est obli­ga­toire dans son inté­gra­li­té et direc­te­ment appli­ca­ble dans tous les États membres.

(177) Afin de garan­tir la sécu­ri­té juri­di­que, d’assurer une péri­ode d’ad­ap­t­ati­on appro­priée pour les opé­ra­teurs et d’é­vi­ter tou­te per­tur­ba­ti­on du mar­ché, notam­ment en assu­rant la con­ti­nui­té de l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, il con­vi­ent que le pré­sent règle­ment s’ap­pli­que aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui ont été mis sur le mar­ché ou mis en ser­vice avant la date d’ap­pli­ca­ti­on géné­ra­le de ce règle­ment, uni­quement si, à par­tir de cet­te date, ces systè­mes sont sou­mis à des modi­fi­ca­ti­ons importan­tes de leur con­cep­ti­on ou de leur fina­li­té. Il con­vi­ent de pré­cis­er que, dans ce con­tex­te, le con­cept de modi­fi­ca­ti­on importan­te doit être con­sidé­ré com­me équi­va­lent en sub­stance à la noti­on de modi­fi­ca­ti­on sub­stan­ti­el­le, qui n’est uti­li­sée qu’en ce qui con­cer­ne les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que con­for­mé­ment au pré­sent règle­ment. Sur une base excep­ti­on­nel­le et à la lumiè­re de la responsa­bi­li­té publi­que, les explo­itants de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui font par­tie des systè­mes d’in­for­ma­ti­on à gran­de échel­le étab­lis par les actes juri­di­ques énu­mé­rés dans une anne­xe au pré­sent règle­ment et les explo­itants de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que qui sont desti­nés à être uti­li­sés par les pou­voirs publics dev­rai­ent, respec­ti­ve­ment, prend­re les mesu­res néces­saires pour se con­for­mer aux exi­gen­ces du pré­sent règle­ment d’i­ci la fin de 2030 et d’i­ci … [ six ans à comp­ter de la date d’en­trée en vigueur du pré­sent règlement].

(178) Les four­nis­seurs de systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que sont encou­ra­gés à com­men­cer à se con­for­mer, sur une base volon­tai­re, aux obli­ga­ti­ons per­ti­nen­tes du pré­sent règle­ment dès la péri­ode de transition.

(179) Le pré­sent règle­ment dev­rait s’ap­pli­quer à par­tir du … [deux ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Tou­te­fois, comp­te tenu du ris­que inac­cep­ta­ble lié à l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le de cer­tai­nes maniè­res, les inter­dic­tions ain­si que les dis­po­si­ti­ons géné­ra­les du pré­sent règle­ment dev­rai­ent déjà s’ap­pli­quer à par­tir de … [six mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Bien que le plein effet de ces inter­dic­tions sui­ve la mise en place de la gou­ver­nan­ce et de l’ap­pli­ca­ti­on du pré­sent règle­ment, il est important d’an­ti­ci­per l’ap­pli­ca­ti­on des inter­dic­tions afin de tenir comp­te des ris­ques inac­cep­ta­bles et d’a­voir un effet sur d’aut­res pro­cé­du­res, tel­les que le droit civil. En out­re, l’in­fras­truc­tu­re liée à la gou­ver­nan­ce et le système d’éva­lua­ti­on de la con­for­mi­té dev­rai­ent être opé­ra­ti­on­nels avant … [deux ans à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment], par con­sé­quent les dis­po­si­ti­ons rela­ti­ves aux orga­nis­mes noti­fi­és et à la struc­tu­re de gou­ver­nan­ce dev­rai­ent s’ap­pli­quer à par­tir de … [ 12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Comp­te tenu de la rapi­di­té des pro­grès tech­no­lo­gi­ques et de l’ad­op­ti­on de modè­les d’IA à usa­ge géné­ral, les obli­ga­ti­ons impo­sées aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral dev­rai­ent s’ap­pli­quer à par­tir du … [12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment]. Les codes de pra­tique dev­rai­ent être prêts pour … [9 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règle­ment] afin de per­mett­re aux four­nis­seurs de démon­trer leur con­for­mi­té en temps uti­le. L’AI Office dev­rait veil­ler à ce que les règles et pro­cé­du­res de clas­si­fi­ca­ti­on soi­ent mises à jour en fonc­tion de l’é­vo­lu­ti­on tech­no­lo­gi­que. En out­re, les États mem­bres dev­rai­ent éta­b­lir et noti­fier à la Com­mis­si­on les règles rela­ti­ves aux sanc­tions, y com­pris les amen­des admi­ni­stra­ti­ves, et veil­ler à ce qu’el­les soi­ent cor­rec­te­ment et effec­ti­ve­ment mises en œuvre à la date d’ap­pli­ca­ti­on du pré­sent règle­ment. Par con­sé­quent, les dis­po­si­ti­ons rela­ti­ves aux sanc­tions dev­rai­ent s’ap­pli­quer à par­tir de … [12 mois à comp­ter de la date d’en­trée en vigueur du pré­sent règlement].

Anne­xes

ANNEXE I Liste des légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’Union

Sec­tion A. Liste des légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’U­ni­on basées sur le nou­veau cad­re législatif

1. Direc­ti­ve 2006/42/CE du Par­le­ment euro­pé­en et du Con­seil du 17 mai 2006 rela­ti­ve aux machi­nes, et modi­fi­ant la direc­ti­ve 95/16/CE (JO L 157 du 9.6.2006, p. 24) [tel­le que modi­fi­ée par le règle­ment sur les machines] ;

2. Direc­ti­ve 2009/48/CE du Par­le­ment euro­pé­en et du Con­seil du 18 juin 2009 rela­ti­ve à la sécu­ri­té des jou­ets (JO L 170 du 30.6.2009, p. 1) ;

3. Direc­ti­ve 2013/53/UE du Par­le­ment euro­pé­en et du Con­seil du 20 novembre 2013 rela­ti­ve aux bateaux de plaisance et aux engins nau­ti­ques à usa­ge per­son­nel et portant trans­po­si­ti­on de la direc­ti­ve 94/25/CE (JO L 354 du 28.12.2013, p. 90) ;

4. Direc­ti­ve 2014/33/UE du Par­le­ment euro­pé­en et du Con­seil du 26 février 2014 rela­ti­ve à l’har­mo­ni­sa­ti­on des légis­la­ti­ons des États mem­bres con­cer­nant les ascen­seurs et les com­po­sants de sécu­ri­té pour ascen­seurs (JO L 96 du 29.3.2014, p. 251) ;

5. Direc­ti­ve 2014/34/UE du Par­le­ment euro­pé­en et du Con­seil du 26 février 2014 rela­ti­ve à l’har­mo­ni­sa­ti­on des légis­la­ti­ons des États mem­bres con­cer­nant les équi­pe­ments et les systè­mes de pro­tec­tion desti­nés à être uti­li­sés en atmo­sphè­res poten­ti­el­le­ment explo­si­ves (JO L 96 du 29.3.2014, p. 309) ;

6. Direc­ti­ve 2014/53/UE du Par­le­ment euro­pé­en et du Con­seil du 16 avril 2014 rela­ti­ve à l’har­mo­ni­sa­ti­on des légis­la­ti­ons des États mem­bres con­cer­nant la mise à dis­po­si­ti­on sur le mar­ché des équi­pe­ments radio et abro­geant la direc­ti­ve 1999/5/CE (JO L 153 du 22.5.2014, p. 62) ;

7. Direc­ti­ve 2014/68/UE du Par­le­ment euro­pé­en et du Con­seil du 15 mai 2014 rela­ti­ve à l’har­mo­ni­sa­ti­on des légis­la­ti­ons des États mem­bres con­cer­nant la mise à dis­po­si­ti­on sur le mar­ché des équi­pe­ments sous pres­si­on (JO L 189 du 27.6.2014, p. 164) ;

8. Règle­ment (UE) 2016/424 du Par­le­ment euro­pé­en et du Con­seil du 9 mars 2016 con­cer­nant les instal­la­ti­ons de câbles et modi­fi­ant la direc­ti­ve 2000/9/CE (JO L 81 du 31.3.2016, p. 1) ;

9. Règle­ment (UE) 2016/425 du Par­le­ment euro­pé­en et du Con­seil du 9 mars 2016 rela­tif aux équi­pe­ments de pro­tec­tion indi­vi­du­el­le et portant modi­fi­ca­ti­on de la direc­ti­ve 89/686/CEE du Con­seil (JO L 81 du 31.3.2016, p. 51) ;

10. Règle­ment (UE) 2016/426 du Par­le­ment euro­pé­en et du Con­seil du 9 mars 2016 con­cer­nant les appareils uti­li­sant des com­bu­sti­bles gazeux et abro­geant la direc­ti­ve 2009/142/CE (JO L 81 du 31.3.2016, p. 99) ;

11. Règle­ment (UE) 2017/745 du Par­le­ment euro­pé­en et du Con­seil du 5 avril 2017 rela­tif aux dis­po­si­tifs médi­caux, modi­fi­ant la direc­ti­ve 2001/83/CE, le règle­ment (CE) n° 178/2002 et le règle­ment (CE) n° 1223/2009 et abro­geant les direc­ti­ves 90/385/CEE et 93/42/CEE du Con­seil (JO L 117 du 5.5.2017, p. 1) ;

12. Règle­ment (UE) 2017/746 du Par­le­ment euro­pé­en et du Con­seil du 5 avril 2017 rela­tif aux dis­po­si­tifs médi­caux de dia­gno­stic in vitro et abro­geant la direc­ti­ve 98/79/CE et la décis­i­on 2010/227/UE de la Com­mis­si­on (JO L 117 du 5.5.2017, p. 176).

Sec­tion B. Liste des aut­res légis­la­ti­ons d’har­mo­ni­sa­ti­on de l’Union

13. Règle­ment (CE) n° 300/2008 du Par­le­ment euro­pé­en et du Con­seil du

11 mars 2008 éta­blis­sant des règles com­mu­nes dans le domaine de la sécu­ri­té de l’a­via­ti­on civi­le et abro­geant le règle­ment (CE) n° 2320/2002 (JO L 97 du 9.4.2008, p. 72) ;

14. Règle­ment (UE) n° 168/2013 du Par­le­ment euro­pé­en et du Con­seil du 15 jan­vier 2013 rela­tif à l’ap­pro­ba­ti­on et à la sur­veil­lan­ce du mar­ché des véhi­cu­les à deux ou trois roues et des quad­ri­cy­cles (JO L 60 du 2.3.2013, p. 52) ;

15. Règle­ment (UE) n° 167/2013 du Par­le­ment euro­pé­en et du Con­seil du 5 février 2013 con­cer­nant l’ap­pro­ba­ti­on et la sur­veil­lan­ce du mar­ché des véhi­cu­les agri­co­les et fore­stiers (JO L 60 du 2.3.2013, p. 1) ;

16. Direc­ti­ve 2014/90/UE du Par­le­ment euro­pé­en et du Con­seil du 23 juil­let 2014 rela­ti­ve aux équi­pe­ments marins et abro­geant la direc­ti­ve 96/98/CE du Con­seil (JO L 257 du 28.8.2014, p. 146) ;

17. Direc­ti­ve (UE) 2016/797 du Par­le­ment euro­pé­en et du Con­seil du 11 mai 2016 rela­ti­ve à l’in­teropé­ra­bi­li­té du système fer­ro­vi­ai­re au sein de l’U­ni­on euro­pé­en­ne (JO L 138 du 26.5.2016, p. 44) ;

18. Règle­ment (UE) 2018/858 du Par­le­ment euro­pé­en et du Con­seil du 30 mai 2018 rela­tif à la récep­ti­on et à la sur­veil­lan­ce du mar­ché des véhi­cu­les à moteur et de leurs remor­ques, ain­si que des systè­mes, com­po­sants et enti­tés tech­ni­ques distinc­tes desti­nés à ces véhi­cu­les, modi­fi­ant les règle­ments (CE) n° 715/2007 et (CE) n° 595/2009 et abro­geant la direc­ti­ve 2007/46/CE (JO L 151 du 14.6.2018, p. 1) ;

19. Règle­ment (UE) 2019/2144 du Par­le­ment euro­pé­en et du Con­seil du 27 novembre 2019 rela­tif aux exi­gen­ces con­cer­nant la récep­ti­on par type des véhi­cu­les à moteur et de leurs remor­ques, ain­si que des systè­mes, com­po­sants et enti­tés tech­ni­ques distinc­tes desti­nés à ces véhi­cu­les, en ce qui con­cer­ne leur sécu­ri­té géné­ra­le et la pro­tec­tion des occu­pants et des usa­gers vul­né­ra­bles de la rou­te, modi­fi­ant le règle­ment (UE) 2018/858 du Par­le­ment euro­pé­en et du Con­seil et abro­geant le règle­ment (CE) n° 78/2009, (EC) No 79/2009 et (EC) No 661/2009 du Par­le­ment euro­pé­en et du Con­seil et des règle­ments de la Com­mis­si­on (EC) No 631/2009, (EU) No 406/2010, (EU) No 672/2010, (EU) No 1003/2010, (EU) No 1005/2010, (UE) No 1008/2010, (UE) No 1009/2010, (UE) No 19/2011, (UE) No 109/2011, (UE) No 458/2011, (UE) No 65/2012, (UE) No 130/2012, (UE) No 347/2012, (UE) No 351/2012, (UE) No 1230/2012 et (UE) 2015/166 (OJ L 325, 16.12.2019, p. 1) ;

20. Règle­ment (UE) 2018/1139 du Par­le­ment euro­pé­en et du Con­seil du 4 juil­let 2018 éta­blis­sant des règles com­mu­nes dans le domaine de l’a­via­ti­on civi­le et insti­tu­ant une Agence euro­pé­en­ne de la sécu­ri­té aéri­en­ne, et modi­fi­ant les règle­ments (CE) n° 2111/2005, (CE) n° 1008/2008, (UE) n° 996/2010, (UE) n° 376/2014 et des direc­ti­ves 2014/30/UE et 2014/53/UE du Par­le­ment euro­pé­en et du Con­seil, et réaf­fir­mant les règle­ments (CE) n° 552/2004 et (CE) n° 216/2008 du Par­le­ment euro­pé­en et du Con­seil et le règle­ment (CEE) n° 3922/91 du Con­seil (JO L 212, 22.8.2018, p. 1), dans la mesu­re où la con­cep­ti­on, la pro­duc­tion et la mise sur le mar­ché des aéron­efs visés à l’ar­tic­le 2, para­gra­phe 1, points (a) et (b), de la pré­sen­te direc­ti­ve, lorsqu’ils con­cer­nent les aéron­efs non pilo­tés et leurs moteurs, héli­ces, piè­ces et équi­pe­ments de com­man­de à distance, sont concernées.

ANNEXE II Liste des infrac­tions visées à l’ar­tic­le 5, para­gra­phe 1, pre­mier ali­néa, point (h)(iii)

Infrac­tions visées à l’ar­tic­le 5, para­gra­phe 1, pre­mier ali­néa, point (h)(iii) :

  • ter­ro­rism,
  • tra­fic d’êtres humains,
  • l’ex­plo­ita­ti­on sexu­el­le des enfants, et la por­no­gra­phie enfantine,
  • tra­fic illi­ci­te de dro­gues nar­co­ti­ques ou de sub­stances psychotropes,
  • tra­fic illi­ci­te d’ar­mes, de muni­ti­ons ou d’explosifs,
  • meurt­re, bles­su­re cor­po­rel­le grave,
  • tra­fic illi­ci­te d’or­ga­nes ou de tissus humains,
  • tra­fic illi­ci­te de matiè­res nuclé­ai­res ou radioactives,
  • l’en­lè­ve­ment, la déten­ti­on illé­ga­le ou l’emprisonnement,
  • cri­mes rele­vant de la com­pé­tence de la Cour péna­le internationale,
  • l’en­lè­ve­ment illé­gal d’aé­ron­efs ou de navires,
  • rape,
  • crime envi­ron­ne­men­tal,
  • vol orga­ni­sé ou à main armée,
  • sabo­ta­ge,
  • par­ti­ci­pa­ti­on à une orga­ni­sa­ti­on cri­mi­nel­le impli­quée dans une ou plu­sieurs des infrac­tions énu­mé­rées ci-dessus.

ANNEXE III Systè­mes IA à haut ris­que visés à l’ar­tic­le 6, para­gra­phe 2

Les systè­mes d’IA à haut ris­que visés à l’ar­tic­le 6, para­gra­phe 2, sont les systè­mes d’IA réper­to­riés dans l’un des domain­es suivants :

1) les don­nées bio­mé­tri­ques, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par le droit de l’U­ni­on ou le droit natio­nal applicable :

(a) systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance.

Cela n’in­clut pas les systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés pour la véri­fi­ca­ti­on bio­mé­tri­que dans le seul but de con­firm­er qu’u­ne per­son­ne phy­si­que spé­ci­fi­que est la per­son­ne qu’el­le pré­tend être ;

(54) Étant don­né que les don­nées bio­mé­tri­ques con­sti­tu­ent une caté­go­rie par­ti­cu­liè­re de don­nées à carac­tère per­son­nel, il est appro­prié de con­sidé­rer com­me à haut ris­que plu­sieurs cas d’uti­li­sa­ti­on cri­tique de systè­mes bio­mé­tri­ques, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par le droit com­mun­au­tai­re et natio­nal appli­ca­ble. Les inexac­ti­tu­des tech­ni­ques des systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à l’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance de per­son­nes phy­si­ques peu­vent con­dui­re à des résul­tats biai­sés et ent­raî­ner des effets dis­cri­mi­na­toires. Le ris­que de tels résul­tats biai­sés et d’ef­fets dis­cri­mi­na­toires est par­ti­cu­liè­re­ment per­ti­nent en ce qui con­cer­ne l’â­ge, l’eth­ni­ci­té, la race, le sexe ou les han­di­caps. Les systè­mes d’i­den­ti­fi­ca­ti­on bio­mé­tri­que à distance dev­rai­ent donc être clas­sés com­me étant à haut ris­que comp­te tenu des ris­ques qu’ils pré­sen­tent. Une tel­le clas­si­fi­ca­ti­on exclut les systè­mes d’IA desti­nés à être uti­li­sés pour la véri­fi­ca­ti­on bio­mé­tri­que, y com­pris l’au­then­ti­fi­ca­ti­on, dont le seul but est de con­firm­er qu’u­ne per­son­ne phy­si­que spé­ci­fi­que est qui cet­te per­son­ne pré­tend être et de con­firm­er l’i­den­ti­té d’u­ne per­son­ne phy­si­que dans le seul but d’a­voir accès à un ser­vice, de déver­rouil­ler un appa­reil ou d’a­voir un accès sécu­ri­sé à des locaux. En out­re, les systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés pour la caté­go­ri­sa­ti­on bio­mé­tri­que en fonc­tion d’at­tri­buts ou de carac­té­ri­sti­ques sen­si­bles pro­té­gés en ver­tu de l’ar­tic­le 9, para­gra­phe 1, du règle­ment (UE) 2016/679 sur la base de don­nées bio­mé­tri­ques, dans la mesu­re où ils ne sont pas inter­dits par le pré­sent règle­ment, et les systè­mes de recon­nais­sance émo­ti­on­nel­le qui ne sont pas inter­dits par le pré­sent règle­ment, dev­rai­ent être clas­sés com­me étant à haut ris­que. Les systè­mes bio­mé­tri­ques qui sont desti­nés à être uti­li­sés uni­quement dans le but de mett­re en place des mesu­res de cyber­sé­cu­ri­té et de pro­tec­tion des don­nées per­son­nel­les ne doi­vent pas être con­sidé­rés com­me des systè­mes d’IA à haut risque.

(b) Systè­mes IA desti­nés à être uti­li­sés pour la caté­go­ri­sa­ti­on bio­mé­tri­que, en fonc­tion d’at­tri­buts ou de carac­té­ri­sti­ques sen­si­bles ou pro­té­gés, sur la base de l’in­fé­rence de ces attri­buts ou caractéristiques ;

(c) Systè­mes IA desti­nés à être uti­li­sés pour la recon­nais­sance des émotions.


2. infras­truc­tu­re cri­tique : systè­mes IA desti­nés à être uti­li­sés com­me com­po­sants de sécu­ri­té dans la gesti­on et l’ex­plo­ita­ti­on de l’in­fras­truc­tu­re numé­ri­que cri­tique, du tra­fic rou­tier, ou dans la four­ni­tu­re d’eau, de gaz, de chauf­fa­ge ou d’électricité.

(55) En ce qui con­cer­ne la gesti­on et l’ex­plo­ita­ti­on des infras­truc­tures cri­ti­ques, il est appro­prié de clas­ser com­me à haut ris­que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés com­me com­po­sants de sécu­ri­té dans la gesti­on et l’ex­plo­ita­ti­on des infras­truc­tures numé­ri­ques cri­ti­ques énu­mé­rées au point (8) de l’an­ne­xe de la direc­ti­ve (UE) 2022/2557, le tra­fic rou­tier et la four­ni­tu­re d’eau, de gaz, de chauf­fa­ge et d’élec­tri­ci­té, car leur défail­lan­ce ou leur dys­fonc­tion­ne­ment peut mett­re en dan­ger la vie et la san­té des per­son­nes à gran­de échel­le et ent­raî­ner des per­tur­ba­ti­ons nota­bles dans le fonc­tion­ne­ment ordi­naire des acti­vi­tés socia­les et éco­no­mi­ques. Les com­po­sants de sécu­ri­té de l’in­fras­truc­tu­re cri­tique, y com­pris l’in­fras­truc­tu­re numé­ri­que cri­tique, sont des systè­mes uti­li­sés pour pro­té­ger direc­te­ment l’in­té­gri­té phy­si­que de l’in­fras­truc­tu­re cri­tique ou la san­té et la sécu­ri­té des per­son­nes et des biens, mais qui ne sont pas néces­saires au fonc­tion­ne­ment du système. La défail­lan­ce ou le dys­fonc­tion­ne­ment de tels com­po­sants pour­rait ent­raî­ner direc­te­ment des ris­ques pour l’in­té­gri­té phy­si­que de l’in­fras­truc­tu­re cri­tique et, par con­sé­quent, des ris­ques pour la san­té et la sécu­ri­té des per­son­nes et des biens. Les com­po­sants desti­nés à être uti­li­sés uni­quement à des fins de cyber­sé­cu­ri­té ne dev­rai­ent pas être qua­li­fi­és de com­po­sants de sécu­ri­té. Des exemp­les de com­po­sants de sécu­ri­té d’u­ne tel­le infras­truc­tu­re cri­tique peu­vent inclu­re des systè­mes de sur­veil­lan­ce de la pres­si­on de l’eau ou des systè­mes de con­trô­le des alar­mes incen­die dans les cen­tres infor­ma­ti­ques en nuage.

3. l’é­du­ca­ti­on et la for­ma­ti­on professionnelle :

(a) Systè­mes d’AI desti­nés à être uti­li­sés pour déter­mi­ner l’ac­cès ou l’ad­mis­si­on ou pour assi­gner des per­son­nes phy­si­ques à des éta­blis­se­ments d’ens­eig­ne­ment et de for­ma­ti­on pro­fes­si­on­nel­le à tous les niveaux ;

(b) Systè­mes d’IA desti­nés à être uti­li­sés pour éva­luer les résul­tats de l’app­ren­tis­sa­ge, y com­pris lorsque ces résul­tats sont uti­li­sés pour gui­der le pro­ce­s­sus d’app­ren­tis­sa­ge des per­son­nes phy­si­ques dans les éta­blis­se­ments d’ens­eig­ne­ment et de for­ma­ti­on pro­fes­si­on­nel­le à tous les niveaux ;

(c) Systè­mes d’AI desti­nés à être uti­li­sés dans le but d’éva­luer le niveau d’é­du­ca­ti­on appro­prié qu’un indi­vi­du recev­ra ou sera en mesu­re d’ob­te­nir, dans le con­tex­te ou au sein des éta­blis­se­ments d’ens­eig­ne­ment et de for­ma­ti­on pro­fes­si­on­nel­le à tous les niveaux ;

(d) Systè­mes IA desti­nés à être uti­li­sés pour sur­veil­ler et détec­ter le com­porte­ment des étu­di­ants lors de tests dans le cad­re ou au sein d’é­ta­blis­se­ments d’ens­eig­ne­ment et de for­ma­ti­on pro­fes­si­on­nel­le à tous les niveaux.

(56) Le déploie­ment de systè­mes d’IA dans l’é­du­ca­ti­on est important pour pro­mou­voir une édu­ca­ti­on et une for­ma­ti­on numé­ri­ques de qua­li­té et pour per­mett­re à tous les app­renants et à tous les ens­eig­nants d’ac­quérir et de par­ta­ger les com­pé­ten­ces et les con­nais­sances numé­ri­ques néces­saires, y com­pris la lit­té­ra­tie média­tique et la pen­sée cri­tique, pour prend­re une part acti­ve dans l’é­co­no­mie, la socié­té et les pro­ce­s­sus démo­cra­ti­ques. Howe­ver, AI systems used in edu­ca­ti­on or voca­tio­nal trai­ning, in par­ti­cu­lar for deter­mi­ning access or admis­si­on, for assig­ning per­sons to edu­ca­tio­nal and voca­tio­nal trai­ning insti­tu­ti­ons or pro­gram­mes at all levels, for eva­lua­ting lear­ning out­co­mes of per­sons, for asses­sing the appro­pria­te level of edu­ca­ti­on for an indi­vi­du­al and mate­ri­al­ly influen­cing the level of edu­ca­ti­on and trai­ning that indi­vi­du­als will recei­ve or will be able to access or for moni­to­ring and detec­ting pro­hi­bi­ted beha­viour of stu­dents during tests should be clas­si­fi­ed as high-risk AI systems, sin­ce they may deter­mi­ne the edu­ca­tio­nal and pro­fes­sio­nal cour­se of a person’s life and the­r­e­fo­re may affect that person’s abili­ty to secu­re a liveli­hood. Lorsqu’ils sont con­çus et uti­li­sés de maniè­re impro­vi­sée, de tels systè­mes peu­vent être par­ti­cu­liè­re­ment intru­sifs et peu­vent vio­ler le droit à l’é­du­ca­ti­on et à la for­ma­ti­on ain­si que le droit à ne pas être dis­cri­mi­né cont­re et per­pé­tuer des sché­mas histo­ri­ques de dis­cri­mi­na­ti­on, par exemp­le cont­re les femmes, cer­ta­ins grou­pes d’â­ge, les per­son­nes han­di­ca­pées ou les per­son­nes de cer­tai­nes ori­gi­nes racia­les ou eth­ni­ques ou de l’o­ri­en­ta­ti­on sexuelle.


4. emploi, gesti­on des tra­vail­leurs et accès à l’auto-emploi :

(a) Systè­mes IA desti­nés à être uti­li­sés pour le recru­tement ou la sélec­tion de per­son­nes phy­si­ques, en par­ti­cu­lier pour pla­cer des annon­ces d’em­ploi ciblées, pour ana­ly­ser et fil­trer les deman­des d’em­ploi et pour éva­luer les candidats ;

(b) Systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés pour prend­re des décis­i­ons con­cer­nant les ter­mes des rela­ti­ons de tra­vail, la pro­mo­ti­on ou la rési­lia­ti­on de rela­ti­ons con­trac­tu­el­les de tra­vail, pour attri­buer des tâches sur la base du com­porte­ment indi­vi­du­el ou de traits ou carac­té­ri­sti­ques per­son­nels, ou pour sur­veil­ler et éva­luer les per­for­man­ces et le com­porte­ment de per­son­nes dans de tel­les relations.

(57) Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le uti­li­sés dans le cad­re de l’em­ploi, de la gesti­on des tra­vail­leurs et de l’ac­cès à l’em­ploi indé­pen­dant, en par­ti­cu­lier pour le recru­tement et la sélec­tion de per­son­nes, pour la pri­se de décis­i­ons con­cer­nant les ter­mes de la rela­ti­on de tra­vail, la pro­mo­ti­on et la rési­lia­ti­on de la rela­ti­on con­trac­tu­el­le de tra­vail, pour l’at­tri­bu­ti­on de tâches sur la base du com­porte­ment indi­vi­du­el, des traits per­son­nels ou des carac­té­ri­sti­ques, et pour le sui­vi ou l’éva­lua­ti­on des per­son­nes dans les rela­ti­ons con­trac­tu­el­les de tra­vail, dev­rai­ent éga­le­ment être clas­sés à haut ris­que, car ces systè­mes peu­vent avoir un impact signi­fi­ca­tif sur les per­spec­ti­ves de car­ri­è­re futures, les moy­ens d’e­xi­stence de ces per­son­nes et les droits des tra­vail­leurs. Les rela­ti­ons con­trac­tu­el­les per­ti­nen­tes liées au tra­vail dev­rai­ent impli­quer, de maniè­re appro­priée, les employés et les per­son­nes four­nis­sant des ser­vices par le biais de pla­te­for­mes tel­les que cel­les men­ti­onnées dans le pro­gram­me de tra­vail 2021 de la Com­mis­si­on. Tout au long du pro­ce­s­sus de recru­tement et lors de l’éva­lua­ti­on, de la pro­mo­ti­on ou de la réten­ti­on des per­son­nes dans les rela­ti­ons con­trac­tu­el­les liées au tra­vail, les systè­mes peu­vent per­pé­tuer des sché­mas histo­ri­ques de dis­cri­mi­na­ti­on, par exemp­le à l’en­cont­re des femmes, de cer­ta­ins grou­pes d’â­ge, des per­son­nes han­di­ca­pées ou des per­son­nes de cer­tai­nes ori­gi­nes racia­les ou eth­ni­ques ou de l’o­ri­en­ta­ti­on sexu­el­le. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le uti­li­sés pour sur­veil­ler les per­for­man­ces et le com­porte­ment de ces per­son­nes peu­vent éga­le­ment por­ter att­ein­te à leurs droits fon­da­men­taux à la pro­tec­tion des don­nées et à la vie privée.

5. l’ac­cès aux ser­vices pri­vés essen­tiels et aux ser­vices et avan­ta­ges publics essen­tiels et la jouis­sance de ces services :

(a) Systè­mes d’IA desti­nés à être uti­li­sés par les pou­voirs publics ou pour le comp­te de ceux-ci afin d’éva­luer l’é­li­gi­bi­li­té de per­son­nes phy­si­ques aux pre­sta­ti­ons et ser­vices essen­tiels d’as­si­stance publi­que, y com­pris les ser­vices de san­té, ain­si que d’oc­troy­er, de rédui­re, de révo­quer ou de recou­vrer ces pre­sta­ti­ons et services ;

(b) les systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés pour éva­luer la sol­va­bi­li­té de per­son­nes phy­si­ques ou pour éta­b­lir leur cote de cré­dit, à l’ex­cep­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le uti­li­sés à des fins de détec­tion de la frau­de financière ;

(c) Systè­mes IA desti­nés à être uti­li­sés pour l’éva­lua­ti­on des ris­ques et la tari­fi­ca­ti­on en rela­ti­on avec des per­son­nes phy­si­ques dans le cas de l’assu­rance vie et de l’assu­rance santé ;

(d) Systè­mes IA desti­nés à éva­luer et à clas­ser les appels d’ur­gence éma­n­ant de per­son­nes phy­si­ques ou à être uti­li­sés pour dis­patcher, ou pour éta­b­lir une prio­ri­té dans la dis­patching de, ser­vices de pre­miè­re inter­ven­ti­on d’ur­gence, y com­pris par la poli­ce, les pom­piers et l’ai­de médi­cale, ain­si que de systè­mes de tria­ge des pati­ents en matiè­re de soins de san­té d’urgence.

(58) Un aut­re domaine dans lequel l’uti­li­sa­ti­on de systè­mes d’IA méri­te une atten­ti­on par­ti­cu­liè­re est l’ac­cès et la jouis­sance de cer­ta­ins ser­vices et avan­ta­ges pri­vés et publics essen­tiels néces­saires aux per­son­nes pour par­ti­ci­per plei­ne­ment à la socié­té ou pour amé­lio­rer leur niveau de vie. En par­ti­cu­lier, les per­son­nes phy­si­ques deman­dant ou rece­vant des pre­sta­ti­ons et des ser­vices d’as­si­stance publi­que essen­tiels de la part des auto­ri­tés publi­ques, tels que les ser­vices de san­té, les pre­sta­ti­ons de sécu­ri­té socia­le, les ser­vices soci­aux offrant une pro­tec­tion dans des cas tels que la mater­ni­té, la mala­die, les acci­dents indu­stri­els, la dépen­dance ou la vieil­les­se et la per­te d’em­ploi et l’as­si­stance socia­le et au loge­ment, sont géné­ra­le­ment dépen­dan­tes de ces pre­sta­ti­ons et ser­vices et se trou­vent dans une posi­ti­on vul­né­ra­ble par rap­port aux auto­ri­tés respons­ables. Si des systè­mes d’IA sont uti­li­sés pour déter­mi­ner si ces avan­ta­ges et ser­vices doi­vent être accor­dés, refusés, réduits, annulés ou récup­é­rés par les auto­ri­tés, y com­pris si les béné­fi­ci­ai­res ont légiti­me­ment droit à ces avan­ta­ges ou ser­vices, ces systè­mes peu­vent avoir un impact signi­fi­ca­tif sur le mode de vie des per­son­nes et peu­vent por­ter att­ein­te à leurs droits fon­da­men­taux, tels que le droit à la pro­tec­tion socia­le, à la non-dis­cri­mi­na­ti­on, à la dignité humaine ou à un recours effec­tif, et dev­rai­ent donc être con­sidé­rés com­me pré­sen­tant un ris­que éle­vé. Néan­mo­ins, ce règle­ment ne dev­rait pas ent­ra­ver le déve­lo­p­pe­ment et l’uti­li­sa­ti­on d’appro­ches inno­van­tes dans l’ad­mi­ni­stra­ti­on publi­que, qui béné­fi­ci­erai­ent d’u­ne uti­li­sa­ti­on plus lar­ge de systè­mes d’in­tel­li­gence arti­fi­ci­el­le con­for­mes et sûrs, à con­di­ti­on que ces systè­mes n’en­traî­nent pas un ris­que éle­vé pour les per­son­nes mora­les et physiques.

En out­re, les systè­mes d’IA uti­li­sés pour éva­luer la cote de cré­dit ou la sol­va­bi­li­té de per­son­nes phy­si­ques dev­rai­ent être con­sidé­rés com­me des systè­mes d’IA à haut ris­que, car ils déter­mi­nent l’ac­cès de ces per­son­nes aux res­sour­ces finan­ciè­res ou aux ser­vices essen­tiels tels que le loge­ment, l’élec­tri­ci­té et les ser­vices de télé­com­mu­ni­ca­ti­on. Les systè­mes d’IA uti­li­sés à ces fins peu­vent con­dui­re à des dis­cri­mi­na­ti­ons ent­re les per­son­nes ou les grou­pes et peu­vent per­pé­tuer des sché­mas histo­ri­ques de dis­cri­mi­na­ti­on, tels que ceux fon­dés sur les ori­gi­nes racia­les ou eth­ni­ques, le sexe, les han­di­caps, l’â­ge ou l’o­ri­en­ta­ti­on sexu­el­le, ou peu­vent cré­er de nou­vel­les for­mes d’im­pact dis­cri­mi­na­toire. Tou­te­fois, les systè­mes d’IA pré­vus par le droit de l’U­ni­on à des fins de détec­tion de la frau­de dans l’off­re de ser­vices finan­ciers et à des fins pru­den­ti­el­les pour le cal­cul des exi­gen­ces de capi­tal des éta­blis­se­ments de cré­dit et des com­pa­gnies d’assu­rance ne dev­rai­ent pas être con­sidé­rés com­me pré­sen­tant un ris­que éle­vé au tit­re du pré­sent règle­ment. En out­re, les systè­mes d’IA desti­nés à être uti­li­sés pour l’éva­lua­ti­on des ris­ques et la tari­fi­ca­ti­on en rela­ti­on avec des per­son­nes phy­si­ques pour la san­té et l’assu­rance vie peu­vent éga­le­ment avoir un impact signi­fi­ca­tif sur le mode de vie des per­son­nes et, s’ils ne sont pas cor­rec­te­ment con­çus, déve­lo­p­pés et uti­li­sés, peu­vent por­ter att­ein­te à leurs droits fon­da­men­taux et ent­raî­ner des con­sé­quen­ces gra­ves pour la vie et la san­té des per­son­nes, y com­pris l’ex­clu­si­on finan­ciè­re et la dis­cri­mi­na­ti­on. Final­ly, AI systems used to eva­lua­te and clas­si­fy emer­gen­cy calls by natu­ral peo­p­le or to dis­patch or estab­lish prio­ri­ty in the dis­patching of emer­gen­cy first respon­se ser­vices, inclu­ding poli­ce, fire­figh­ters and medi­cal aid, as well as of emer­gen­cy heal­th­ca­re pati­ent tria­ge systems, should also be clas­si­fi­ed as high-risk sin­ce they make decis­i­ons in very cri­ti­cal situa­tions for the life and health of per­sons and their property.


6. l’ap­pli­ca­ti­on de la loi, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par le droit de l’U­ni­on ou le droit natio­nal pertinent :

(a) Systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on au sou­ti­en des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou pour leur comp­te, afin d’éva­luer le ris­que qu’u­ne per­son­ne phy­si­que devi­en­ne la vic­ti­me d’in­frac­tions pénales ;

(b) Systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on en sou­ti­en aux auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, com­me des poly­gra­phes ou des outils similaires ;

(c) Systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on, en vue d’ai­der les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi à éva­luer la fia­bi­li­té des preu­ves dans le cad­re d’en­quêtes ou de pour­suites pénales ;

(d) Systè­mes d’in­tel­li­gence arti­fi­ci­el­le desti­nés à être uti­li­sés par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou pour leur comp­te, ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on au sou­ti­en des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi, pour éva­luer le ris­que qu’u­ne per­son­ne phy­si­que com­met­te ou com­met­te à nou­veau une infrac­tion non seu­le­ment sur la base du pro­fi­la­ge des per­son­nes phy­si­ques tel que visé à l’ar­tic­le 3, para­gra­phe 4, de la direc­ti­ve (UE) 2016/680, ou pour éva­luer les traits de per­son­na­li­té et les carac­té­ri­sti­ques ou le com­porte­ment cri­mi­nel pas­sé de per­son­nes phy­si­ques ou de groupes ;

(e) Systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou par des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on au sou­ti­en des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi pour le pro­fi­la­ge de per­son­nes phy­si­ques tel que visé à l’ar­tic­le 3, para­gra­phe 4, de la direc­ti­ve (UE) 2016/680 dans le cad­re de la détec­tion, de l’en­quête ou de la pour­suite d’in­frac­tions pénales.

(59) Comp­te tenu de leur rôle et de leur responsa­bi­li­té, les actions des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi impli­quant cer­tai­nes uti­li­sa­ti­ons de systè­mes d’IA se carac­té­ri­sent par un degré signi­fi­ca­tif de désé­qui­lib­re de pou­voir et peu­vent con­dui­re à la sur­veil­lan­ce, à l’ar­re­sta­ti­on ou à la pri­va­ti­on de la liber­té d’u­ne per­son­ne phy­si­que, ain­si qu’à d’aut­res réper­cus­sions néga­ti­ves sur les droits fon­da­men­taux garan­tis par la Char­te. En par­ti­cu­lier, si le système d’in­tel­li­gence arti­fi­ci­el­le n’est pas for­mé à des don­nées de qua­li­té, s’il ne répond pas à des exi­gen­ces suf­fi­san­tes en ter­mes de per­for­mance, de pré­cis­i­on ou de robust­es­se, ou s’il n’est pas cor­rec­te­ment con­çu et testé avant d’êt­re mis sur le mar­ché ou autre­ment mis en ser­vice, il peut sélec­tion­ner des per­son­nes de maniè­re dis­cri­mi­na­toire ou autre­ment incor­rec­te ou inju­ste. En out­re, l’e­xer­ci­ce d’im­portants droits fon­da­men­taux pro­cé­du­raux, tels que le droit à un recours effec­tif et à un procès équi­ta­ble, ain­si que le droit à la défen­se et la pré­somp­ti­on d’in­no­cence, pour­rait être ent­ra­vé, en par­ti­cu­lier lorsque ces systè­mes d’IA ne sont pas suf­fi­sam­ment trans­par­ents, expli­ca­bles et docu­men­tés. Il est donc appro­prié de clas­ser com­me étant à haut ris­que, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par le droit com­mun­au­tai­re et natio­nal per­ti­nent, un cer­tain nombre de systè­mes d’IA desti­nés à être uti­li­sés dans le con­tex­te de l’ap­pli­ca­ti­on de la loi, où l’e­xac­ti­tu­de, la fia­bi­li­té et la trans­pa­rence sont par­ti­cu­liè­re­ment importan­tes pour évi­ter des effets néga­tifs, main­te­nir la con­fi­ance du public et assurer la responsa­bi­li­té et un recours effectif.

Comp­te tenu de la natu­re des acti­vi­tés et des ris­ques qui y sont liés, ces systè­mes d’IA à haut ris­que dev­rai­ent inclu­re, en par­ti­cu­lier, les systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi ou par les insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on sou­tenant les auto­ri­tés char­gées de l’ap­pli­ca­ti­on de la loi pour éva­luer le ris­que qu’u­ne per­son­ne phy­si­que devi­en­ne vic­ti­me d’in­frac­tions péna­les, tels que les poly­gra­phes et aut­res outils simi­lai­res, pour l’éva­lua­ti­on de la fia­bi­li­té des preu­ves dans le cad­re d’en­quêtes ou de pour­suites en matiè­re d’in­frac­tions péna­les et, dans la mesu­re où cela n’est pas inter­dit par le pré­sent règle­ment, pour l’éva­lua­ti­on du ris­que qu’u­ne per­son­ne phy­si­que com­met­te ou com­met­te à nou­veau des infrac­tions, non seu­le­ment sur la base du pro­fi­la­ge des per­son­nes phy­si­ques ou de l’éva­lua­ti­on des traits de per­son­na­li­té et des carac­té­ri­sti­ques ou du com­porte­ment cri­mi­nel pas­sé de per­son­nes phy­si­ques ou de grou­pes, mais aus­si pour le pro­fi­la­ge dans le cad­re de la détec­tion, de l’en­quête ou de la pour­suite d’in­frac­tions péna­les. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le spé­ci­fi­quement desti­nés à être uti­li­sés pour des pro­cé­du­res admi­ni­stra­ti­ves par les auto­ri­tés fis­ca­les et doua­niè­res ain­si que par les unités de rens­eig­ne­ment finan­cier effec­tu­ant des tâches admi­ni­stra­ti­ves d’ana­ly­se d’in­for­ma­ti­ons con­for­mé­ment au droit de l’U­ni­on rela­tif à la lut­te cont­re le blan­chi­ment d’ar­gent ne dev­rai­ent pas être con­sidé­rés com­me des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à haut ris­que uti­li­sés par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on des lois aux fins de la pré­ven­ti­on, de la détec­tion, de l’en­quête et de la pour­suite d’in­frac­tions péna­les. L’uti­li­sa­ti­on d’ou­tils d’in­tel­li­gence arti­fi­ci­el­le par les forces de l’ord­re et les aut­res auto­ri­tés com­pé­ten­tes ne dev­rait pas être un fac­teur d’i­né­ga­li­té ou d’ex­clu­si­on. L’im­pact de l’uti­li­sa­ti­on d’ou­tils d’in­tel­li­gence arti­fi­ci­el­le sur les droits de défen­se des suspects ne dev­rait pas être igno­ré, en par­ti­cu­lier la dif­fi­cul­té d’ob­te­nir des infor­ma­ti­ons per­ti­nen­tes sur le fonc­tion­ne­ment de ces systè­mes et la dif­fi­cul­té qui en résul­te à con­te­ster leurs résul­tats en justi­ce, en par­ti­cu­lier par des per­son­nes phy­si­ques faisant l’ob­jet d’u­ne enquête.


7. gesti­on des migra­ti­ons, de l’a­si­le et du con­trô­le des fron­tiè­res, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par la légis­la­ti­on per­ti­nen­te de l’U­ni­on ou nationale :

(a) Systè­mes IA desti­nés à être uti­li­sés par ou pour le comp­te d’au­to­ri­tés publi­ques com­pé­ten­tes ou d’in­sti­tu­ti­ons, d’or­ga­nes, d’of­fices ou d’a­gen­ces de l’U­ni­on en tant que poly­gra­phes ou outils similaires ;

(b) Systè­mes d’AI desti­nés à être uti­li­sés par ou pour le comp­te d’au­to­ri­tés publi­ques com­pé­ten­tes ou d’in­sti­tu­ti­ons, d’or­ga­nes, d’of­fices ou d’a­gen­ces de l’U­ni­on pour éva­luer un ris­que, y com­pris un ris­que pour la sécu­ri­té, un ris­que de migra­ti­on irré­gu­liè­re ou un ris­que pour la san­té, pré­sen­té par une per­son­ne phy­si­que qui a l’in­ten­ti­on d’en­trer ou qui est entrée sur le ter­ri­toire d’un État membre ;

(c) les systè­mes d’AI desti­nés à être uti­li­sés par ou pour le comp­te d’au­to­ri­tés publi­ques com­pé­ten­tes ou d’in­sti­tu­ti­ons, d’or­ga­nes, d’of­fices ou d’a­gen­ces de l’U­ni­on pour assi­ster les auto­ri­tés publi­ques com­pé­ten­tes dans l’ex­amen des deman­des d’a­si­le, de visa ou de per­mis de séjour et pour les recours con­ne­xes con­cer­nant l’é­li­gi­bi­li­té des per­son­nes phy­si­ques deman­dant un sta­tut, y com­pris les éva­lua­tions con­ne­xes de la fia­bi­li­té des preuves ;

(d) Systè­mes d’IA desti­nés à être uti­li­sés par ou pour le comp­te d’au­to­ri­tés publi­ques com­pé­ten­tes ou d’in­sti­tu­ti­ons, d’or­ga­nes, d’of­fices ou d’a­gen­ces de l’U­ni­on, dans le cad­re de la gesti­on des migra­ti­ons, de l’a­si­le ou des con­trô­les aux fron­tiè­res, aux fins de la détec­tion, de la recon­nais­sance ou de l’i­den­ti­fi­ca­ti­on de per­son­nes phy­si­ques, à l’ex­cep­ti­on de la véri­fi­ca­ti­on des docu­ments de voyage.

(60) Les systè­mes d’IA uti­li­sés dans la gesti­on de la migra­ti­on, de l’a­si­le et du con­trô­le des fron­tiè­res affec­tent des per­son­nes qui sont sou­vent dans une posi­ti­on par­ti­cu­liè­re­ment vul­né­ra­ble et qui dépen­dent du résul­tat des actions des auto­ri­tés publi­ques com­pé­ten­tes. L’e­xac­ti­tu­de, la natu­re non dis­cri­mi­na­toire et la trans­pa­rence des systè­mes d’IA uti­li­sés dans ces con­tex­tes sont donc par­ti­cu­liè­re­ment importan­tes pour garan­tir le respect des droits fon­da­men­taux des per­son­nes con­cer­nées, en par­ti­cu­lier leurs droits à la lib­re cir­cula­ti­on, à la non-dis­cri­mi­na­ti­on, à la pro­tec­tion de la vie pri­vée et des don­nées per­son­nel­les, à la pro­tec­tion inter­na­tio­na­le et à la bon­ne admi­ni­stra­ti­on. Il est donc appro­prié de clas­ser dans la caté­go­rie des systè­mes à haut ris­que, dans la mesu­re où leur uti­li­sa­ti­on est auto­ri­sée par le droit com­mun­au­tai­re et natio­nal appli­ca­ble, les systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique desti­nés à être uti­li­sés par ou pour le comp­te des auto­ri­tés publi­ques com­pé­ten­tes ou des insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on char­gés de tâches dans les domain­es de l’im­mi­gra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res, tels que les poly­gra­phes et outils simi­lai­res, pour éva­luer cer­ta­ins ris­ques posés par des per­son­nes phy­si­ques ent­rant sur le ter­ri­toire d’un État membre ou deman­dant un visa ou l’a­si­le, pour assi­ster les auto­ri­tés publi­ques com­pé­ten­tes dans l’ex­amen, y com­pris l’éva­lua­ti­on per­ti­nen­te de la fia­bi­li­té des preu­ves, des deman­des d’a­si­le, de visa et de per­mis de séjour et des plain­tes y affé­ren­tes, dans le but d’é­ta­b­lir l’é­li­gi­bi­li­té des per­son­nes phy­si­ques deman­dant un sta­tut, aux fins de la détec­tion, de la recon­nais­sance ou de l’i­den­ti­fi­ca­ti­on des per­son­nes phy­si­ques dans le cad­re de la gesti­on des migra­ti­ons, de l’a­si­le et des con­trô­les aux fron­tiè­res, à l’ex­cep­ti­on de la véri­fi­ca­ti­on des docu­ments de voyage.

Les systè­mes d’IA dans le domaine de la gesti­on des migra­ti­ons, de l’a­si­le et des con­trô­les aux fron­tiè­res cou­verts par le pré­sent règle­ment dev­rai­ent être con­for­mes aux exi­gen­ces pro­cé­du­ra­les per­ti­nen­tes fixées par le règle­ment (CE) n° 810/2009 du Par­le­ment euro­pé­en et du Con­seil , la direc­ti­ve 2013/32/UE du Par­le­ment euro­pé­en et du Con­seil , et tou­te aut­re légis­la­ti­on per­ti­nen­te de l’U­ni­on. L’uti­li­sa­ti­on de systè­mes d’i­den­ti­fi­ca­ti­on auto­ma­tique dans le cad­re de la gesti­on des migra­ti­ons, de l’a­si­le et du con­trô­le des fron­tiè­res ne dev­rait en aucun cas être uti­li­sée par les États mem­bres ou les insti­tu­ti­ons, orga­nes, bureaux ou agen­ces de l’U­ni­on com­me un moy­en de con­tour­ner les obli­ga­ti­ons inter­na­tio­na­les qui leur incom­bent en ver­tu de la con­ven­ti­on des Nati­ons unies rela­ti­ve au sta­tut des réfu­giés, signée à Genè­ve le 28 juil­let 1951 et modi­fi­ée par le pro­to­co­le du 31 jan­vier 1967, ni de por­ter att­ein­te de quel­que maniè­re que ce soit au prin­ci­pe de non-refou­le­ment ou de refu­ser des voies de pas­sa­ge léga­les sûres et effec­ti­ves vers le ter­ri­toire de l’U­ni­on, y com­pris le droit à la pro­tec­tion internationale.


8. admi­ni­stra­ti­on de la justi­ce et pro­ce­s­sus démocratiques :

(a) Systè­mes d’IA desti­nés à être uti­li­sés par une auto­ri­té judi­ciai­re ou en son nom pour assi­ster une auto­ri­té judi­ciai­re dans la recher­che et l’in­ter­pré­ta­ti­on des faits et de la loi et dans l’ap­pli­ca­ti­on de la loi à un ensem­ble con­cret de faits, ou à être uti­li­sés de maniè­re simi­lai­re dans le règle­ment alter­na­tif des litiges ;

(b) Les systè­mes d’IA desti­nés à être uti­li­sés pour influen­cer le résul­tat d’u­ne élec­tion ou d’un réfé­ren­dum ou le com­porte­ment de vote de per­son­nes phy­si­ques dans l’e­xer­ci­ce de leur droit de vote lors d’élec­tions ou de réfé­ren­dums. Cela n’in­clut pas les systè­mes d’in­tel­li­gence arti­fi­ci­el­le dont les per­son­nes phy­si­ques ne sont pas direc­te­ment expo­sées, tels que les outils uti­li­sés pour orga­ni­s­er, opti­mi­ser ou struc­tu­rer des cam­pa­gnes poli­ti­ques d’un point de vue admi­ni­stra­tif ou logistique.

(61) Cer­ta­ins systè­mes d’IA desti­nés à l’ad­mi­ni­stra­ti­on de la justi­ce et aux pro­ce­s­sus démo­cra­ti­ques dev­rai­ent être clas­sés à haut ris­que, comp­te tenu de leur impact poten­ti­el­le­ment signi­fi­ca­tif sur la démo­cra­tie, le respect du droit, les liber­tés indi­vi­du­el­les ain­si que le droit à un recours effec­tif et à un procès équi­ta­ble. En par­ti­cu­lier, pour fai­re face aux ris­ques de biais, d’err­eurs et d’o­pa­ci­té poten­tiels, il est appro­prié de qua­li­fier de systè­mes d’IA à haut ris­que les systè­mes desti­nés à être uti­li­sés par une auto­ri­té judi­ciai­re ou pour son comp­te afin d’as­si­ster les auto­ri­tés judi­ciai­res dans la recher­che et l’in­ter­pré­ta­ti­on des faits et du droit et dans l’ap­pli­ca­ti­on du droit à un ensem­ble con­cret de faits. Les systè­mes d’IA desti­nés à être uti­li­sés par des orga­nis­mes de réso­lu­ti­on alter­na­ti­ve des liti­ges à ces fins dev­rai­ent éga­le­ment être con­sidé­rés com­me pré­sen­tant un ris­que éle­vé lorsque les résul­tats de la réso­lu­ti­on alter­na­ti­ve des liti­ges pro­dui­sent des effets juri­di­ques pour les par­ties. L’uti­li­sa­ti­on d’ou­tils d’IA peut sou­te­nir le pou­voir de décis­i­on des juges ou l’in­dé­pen­dance judi­ciai­re, mais ne doit pas les rem­pla­cer : la décis­i­on fina­le doit rester une acti­vi­té humaine. La clas­si­fi­ca­ti­on des systè­mes d’IA com­me étant à haut ris­que ne dev­rait tou­te­fois pas s’é­tendre aux systè­mes d’IA desti­nés à des acti­vi­tés admi­ni­stra­ti­ves pure­ment acces­soires qui n’af­fec­tent pas l’ad­mi­ni­stra­ti­on réel­le de la justi­ce dans les cas indi­vi­du­els, tel­les que l’an­ony­mi­sa­ti­on ou la pseud­ony­mi­sa­ti­on des décis­i­ons, docu­ments ou don­nées judi­ciai­res, la com­mu­ni­ca­ti­on ent­re le per­son­nel, les tâches administratives .

(62) Sans pré­ju­di­ce des règles pré­vues par le règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Conseil34+, et afin de remé­dier aux ris­ques d’in­ter­fé­ren­ces exté­ri­eu­res exce­s­si­ves avec le droit de vote con­sacré à l’ar­tic­le 39 de la Char­te, et d’ef­fets néga­tifs sur la démo­cra­tie et le respect du droit, Les systè­mes d’IA desti­nés à être uti­li­sés pour influen­cer le résul­tat d’u­ne élec­tion ou d’un réfé­ren­dum ou le com­porte­ment de vote de per­son­nes phy­si­ques dans l’e­xer­ci­ce de leur droit de vote lors d’élec­tions ou de réfé­ren­dums dev­rai­ent être clas­sés com­me des systè­mes d’IA à haut ris­que, à l’ex­cep­ti­on des systè­mes d’IA dont la pro­duc­tion n’ex­po­se pas direc­te­ment les per­son­nes phy­si­ques, tels que les outils uti­li­sés pour orga­ni­s­er, opti­mi­ser et struc­tu­rer les cam­pa­gnes poli­ti­ques d’un point de vue admi­ni­stra­tif et logistique.

ANNEXE IV Docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 11, para­gra­phe 1

La docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 11, para­gra­phe 1, doit con­te­nir au moins les infor­ma­ti­ons sui­van­tes, selon le système d’assu­rance qua­li­té concerné :

1. Une descrip­ti­on géné­ra­le du système d’IA, y compris :

(a) son but pré­vu, le nom du four­nis­seur et la ver­si­on du système reflé­tant sa rela­ti­on avec les ver­si­ons précédentes ;

(b) com­ment le système IA inter­agit avec, ou peut être uti­li­sé pour inter­agir avec, du maté­ri­el ou des logi­ciels, y com­pris d’aut­res systè­mes IA qui ne font pas par­tie du système IA lui-même, le cas échéant ;

(c) les ver­si­ons des logi­ciels ou des micro­lo­gi­ciels con­cer­nés, et tou­te exi­gence rela­ti­ve aux mises à jour des versions ;

(d) la descrip­ti­on de tou­tes les for­mes sous les­quel­les le système IA est mis sur le mar­ché ou mis en ser­vice, tel­les que les pro­gi­ciels inté­g­rés dans le maté­ri­el, les télé­char­ge­ments ou les API ;

(e) la descrip­ti­on du maté­ri­el sur lequel le système IA est desti­né à fonctionner ;

(f) lorsque le système IA fait par­tie inté­gran­te de pro­duits, des pho­to­gra­phies ou des illu­stra­ti­ons mon­trant les carac­té­ri­sti­ques exter­nes, le mar­quage et la pré­sen­ta­ti­on inter­ne de ces produits ;

(g) une descrip­ti­on de base de l’in­ter­face uti­li­sa­teur four­nie au déployeur ;

(h) des ins­truc­tions d’uti­li­sa­ti­on pour le déployeur, et une descrip­ti­on de base de l’in­ter­face uti­li­sa­teur four­nie au déployeur, le cas échéant ;

2. Une descrip­ti­on détail­lée des élé­ments du système IA et du pro­ce­s­sus de son déve­lo­p­pe­ment, y compris :

(a) les métho­des et étapes mises en œuvre pour le déve­lo­p­pe­ment du système d’in­tel­li­gence arti­fi­ci­el­le, y com­pris, le cas échéant, le recours à des systè­mes ou outils pré-con­çus four­nis par des tiers et la maniè­re dont ceux-ci ont été uti­li­sés, inté­g­rés ou modi­fi­és par le fournisseur ;

(b) les spé­ci­fi­ca­ti­ons de con­cep­ti­on du système, à savoir la logi­que géné­ra­le du système IA et des algo­rith­mes ; les prin­ci­paux choix de con­cep­ti­on, y com­pris les rai­sons et les hypo­thè­ses rete­nues, notam­ment en ce qui con­cer­ne les per­son­nes ou les grou­pes de per­son­nes à l’é­gard des­quels le système est desti­né à être uti­li­sé ; les prin­ci­paux choix de clas­si­fi­ca­ti­on ; ce que le système est con­çu pour opti­mi­ser, et la per­ti­nence des dif­fér­ents paramè­tres ; la descrip­ti­on de la qua­li­té atten­due de la pro­duc­tion et de la sor­tie du système ; la décis­i­on rela­ti­ve à tout com­pro­mis éven­tuel con­cer­nant les solu­ti­ons tech­ni­ques adop­tées pour satis­fai­re aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2 ;

(c) the descrip­ti­on of the system archi­tec­tu­re explai­ning how soft­ware com­pon­ents build on or feed into each other and inte­gra­te into the over­all pro­ce­s­sing ; the com­pu­ta­tio­nal resour­ces used to deve­lop, train, test and vali­da­te the AI system ;

(d) le cas échéant, les exi­gen­ces en matiè­re de don­nées en ter­mes de fiches décri­vant les métho­do­lo­gies et tech­ni­ques de for­ma­ti­on et les ensem­bles de don­nées de for­ma­ti­on uti­li­sés, y com­pris une descrip­ti­on géné­ra­le de ces ensem­bles de don­nées, des infor­ma­ti­ons sur leur pro­ven­an­ce, leur por­tée et leurs prin­ci­pa­les carac­té­ri­sti­ques ; la maniè­re dont les don­nées ont été obte­nues et sélec­tion­nées ; les pro­cé­du­res d’é­ti­que­ta­ge (par exemp­le, pour l’app­ren­tis­sa­ge super­vi­sé), les métho­do­lo­gies de net­to­ya­ge des don­nées (par exemp­le, la détec­tion des outliers) ;

(e) l’éva­lua­ti­on des mesu­res de con­trô­le humain néces­saires con­for­mé­ment à l’ar­tic­le 14, y com­pris une éva­lua­ti­on des mesu­res tech­ni­ques néces­saires pour faci­li­ter l’in­ter­pré­ta­ti­on des résul­tats des systè­mes IA par les déployeurs, con­for­mé­ment à l’ar­tic­le 13(3), point (d) ;

(f) le cas échéant, une descrip­ti­on détail­lée des modi­fi­ca­ti­ons pré­dé­fi­nies appor­tées au système d’i­den­ti­fi­ca­ti­on auto­ma­tique et à ses per­for­man­ces, ain­si que tou­tes les infor­ma­ti­ons per­ti­nen­tes rela­ti­ves aux solu­ti­ons tech­ni­ques adop­tées pour assurer la con­for­mi­té per­ma­nen­te du système d’i­den­ti­fi­ca­ti­on auto­ma­tique avec les exi­gen­ces per­ti­nen­tes énon­cées au cha­pit­re III, sec­tion 2 ;

(g) les pro­cé­du­res de vali­da­ti­on et d’es­sai uti­li­sées, y com­pris les infor­ma­ti­ons sur les don­nées de vali­da­ti­on et d’es­sai uti­li­sées et leurs prin­ci­pa­les carac­té­ri­sti­ques ; les mesu­res uti­li­sées pour mesurer l’e­xac­ti­tu­de, la robust­es­se et la con­for­mi­té avec d’aut­res exi­gen­ces per­ti­nen­tes énon­cées au cha­pit­re III, sec­tion 2, ain­si que les impacts poten­ti­el­le­ment dis­cri­mi­na­toires ; les pro­to­co­les d’es­sai et tous les rap­ports d’es­sai datés et signés par les per­son­nes respons­ables, y com­pris en ce qui con­cer­ne les chan­ge­ments pré­é­tab­lis men­ti­onnés au point (f) ;

(h) des mesu­res de cyber­sé­cu­ri­té mises en place ;

3. des infor­ma­ti­ons détail­lées sur la sur­veil­lan­ce, le fonc­tion­ne­ment et le con­trô­le du système d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier en ce qui con­cer­ne : ses capa­ci­tés et ses limi­tes de per­for­mance, y com­pris le degré d’e­xac­ti­tu­de pour des per­son­nes ou des grou­pes de per­son­nes spé­ci­fi­ques sur les­quels le système est desti­né à être uti­li­sé et le niveau glo­bal d’e­xac­ti­tu­de atten­du par rap­port à son objec­tif pré­vu ; les résul­tats non escomp­tés et les sources de ris­ques pour la san­té et la sécu­ri­té, les droits fon­da­men­taux et la dis­cri­mi­na­ti­on au regard de l’ob­jec­tif pré­vu du système IA ; les mesu­res de con­trô­le humain néces­saires con­for­mé­ment à l’ar­tic­le 14, y com­pris les mesu­res tech­ni­ques mises en place pour faci­li­ter l’in­ter­pré­ta­ti­on des résul­tats des systè­mes IA par les déployeurs ; les spé­ci­fi­ca­ti­ons rela­ti­ves aux don­nées d’en­trée, le cas échéant ;

4. Une descrip­ti­on de l’a­dé­qua­ti­on des mesu­res de per­for­mance pour le système d’IA spécifique ;

5. Une descrip­ti­on détail­lée du système de gesti­on des ris­ques con­for­mé­ment à l’ar­tic­le 9 ;

6. Une descrip­ti­on des modi­fi­ca­ti­ons per­ti­nen­tes appor­tées par le four­nis­seur au système au cours de son cycle de vie ;

7. Une liste des nor­mes har­mo­ni­sées appli­quées, en tota­li­té ou en par­tie, dont les réfé­ren­ces ont été publiées au Jour­nal offi­ci­el de l’U­ni­on euro­pé­en­ne ; si aucu­ne de ces nor­mes har­mo­ni­sées n’a été appli­quée, une descrip­ti­on détail­lée des solu­ti­ons adop­tées pour satis­fai­re aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, y com­pris une liste des aut­res nor­mes et spé­ci­fi­ca­ti­ons tech­ni­ques per­ti­nen­tes appliquées ;

8. Une copie de la décla­ra­ti­on de con­for­mi­té de l’UE visée à l’ar­tic­le 47 ;

9. Une descrip­ti­on détail­lée du système en place pour éva­luer les per­for­man­ces du système d’assu­rance inva­li­di­té au cours de la pha­se de post-com­mer­cia­li­sa­ti­on, con­for­mé­ment à l’ar­tic­le 72, y com­pris le plan de sur­veil­lan­ce post-com­mer­cia­li­sa­ti­on visé à l’ar­tic­le 72, para­gra­phe 3.

ANNEX V Décla­ra­ti­on de con­for­mi­té UE

La décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 doit con­te­nir tou­tes les infor­ma­ti­ons suivantes :

1. Nom et type du système d’in­tel­li­gence arti­fi­ci­el­le et tou­te aut­re réfé­rence non ambi­guë per­met­tant l’i­den­ti­fi­ca­ti­on et la tra­ça­bi­li­té du système d’in­tel­li­gence artificielle ;

2. Le nom et l’adres­se du four­nis­seur ou, le cas échéant, de son repré­sen­tant autorisé ;

3. Une décla­ra­ti­on selon laquel­le la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 est éta­b­lie sous la seu­le responsa­bi­li­té du fournisseur ;

4. Une décla­ra­ti­on selon laquel­le le système IA est con­for­me au pré­sent règle­ment et, le cas échéant, à tou­te aut­re légis­la­ti­on de l’U­ni­on appli­ca­ble qui pré­voit la déliv­rance de la décla­ra­ti­on UE de con­for­mi­té visée à l’ar­tic­le 47 ;

5. Lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le impli­que le trai­te­ment de don­nées à carac­tère per­son­nel, une décla­ra­ti­on selon laquel­le ce système d’in­tel­li­gence arti­fi­ci­el­le est con­for­me aux règle­ments (UE) 2016/679 et (UE) 2018/1725 et à la direc­ti­ve (UE) 2016/680 ;

6. Réfé­ren­ces à tou­te nor­me har­mo­ni­sée per­ti­nen­te uti­li­sée ou à tou­te aut­re spé­ci­fi­ca­ti­on com­mu­ne par rap­port à laquel­le la con­for­mi­té est déclarée ;

7. Le cas échéant, le nom et le numé­ro d’i­den­ti­fi­ca­ti­on de l’or­ga­nis­me noti­fié, une descrip­ti­on de la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té effec­tuée et l’i­den­ti­fi­ca­ti­on du cer­ti­fi­cat délivré ;

8. Le lieu et la date d’é­mis­si­on de la décla­ra­ti­on, le nom et la fonc­tion de la per­son­ne qui l’a signée, ain­si qu’u­ne indi­ca­ti­on de la per­son­ne qui a signé ou au nom de laquel­le cet­te per­son­ne a signé.

ANNEX VI Pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té basée sur le con­trô­le interne

1. La pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té basée sur le con­trô­le inter­ne est la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té basée sur les points 2, 3 et 4.

2. Le pre­sta­tai­re véri­fie que le système de gesti­on de la qua­li­té mis en place est con­for­me aux exi­gen­ces de l’ar­tic­le 17.

3. Le pre­sta­tai­re exami­ne les infor­ma­ti­ons con­te­nues dans la docu­men­ta­ti­on tech­ni­que afin d’éva­luer la con­for­mi­té du système AI avec les exi­gen­ces essen­ti­el­les per­ti­nen­tes énon­cées au cha­pit­re III, sec­tion 2.

4. Le pre­sta­tai­re véri­fie éga­le­ment que le pro­ce­s­sus de con­cep­ti­on et de déve­lo­p­pe­ment du système d’in­tel­li­gence arti­fi­ci­el­le et son sui­vi après la mise sur le mar­ché visé à l’ar­tic­le 72 sont con­for­mes à la docu­men­ta­ti­on technique.

ANNEXE VII Con­for­mi­té basée sur une éva­lua­ti­on du système de gesti­on de la qua­li­té et une éva­lua­ti­on de la docu­men­ta­ti­on technique

1. Introduction

La con­for­mi­té basée sur une éva­lua­ti­on du système de gesti­on de la qua­li­té et une éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que est la pro­cé­du­re d’éva­lua­ti­on de la con­for­mi­té basée sur les points 2 à 5.

2. Aperçu

Le système de gesti­on de la qua­li­té approu­vé pour la con­cep­ti­on, le déve­lo­p­pe­ment et les essais des systè­mes d’assu­rance qua­li­té visés à l’ar­tic­le 17 est exami­né con­for­mé­ment au point 3 et fait l’ob­jet d’u­ne sur­veil­lan­ce con­for­mé­ment au point 5. La docu­men­ta­ti­on tech­ni­que du système d’assu­rance qua­li­té est exami­née con­for­mé­ment au point 4.

3. Système de gesti­on de la qualité

3.1. La deman­de du pre­sta­tai­re doit inclure :

(a) le nom et l’adres­se du pre­sta­tai­re et, si la deman­de est dépo­sée par un repré­sen­tant auto­ri­sé, éga­le­ment son nom et son adresse ;

(b) la liste des systè­mes d’IA cou­verts par le même système de gesti­on de la qualité ;

(c) la docu­men­ta­ti­on tech­ni­que pour chaque système AI cou­vert par le même système de gesti­on de la qualité ;

(d) la docu­men­ta­ti­on rela­ti­ve au système de gesti­on de la qua­li­té, qui doit cou­vr­ir tous les aspects énu­mé­rés à l’ar­tic­le 17 ;

(e) une descrip­ti­on des pro­cé­du­res en place pour s’assurer que le système de gesti­on de la qua­li­té reste adé­quat et efficace ;

(f) une décla­ra­ti­on écri­te selon laquel­le la même deman­de n’a pas été dépo­sée auprès d’un aut­re orga­nis­me notifié.

3.2. Le système de gesti­on de la qua­li­té est éva­lué par l’or­ga­nis­me noti­fié, qui déter­mi­ne s’il satis­fait aux exi­gen­ces visées à l’ar­tic­le 17.

La décis­i­on doit être noti­fi­ée au four­nis­seur ou à son repré­sen­tant autorisé.

La noti­fi­ca­ti­on doit con­te­nir les con­clu­si­ons de l’éva­lua­ti­on du système de gesti­on de la qua­li­té et la décis­i­on d’éva­lua­ti­on motivée.

3.3. Le système de gesti­on de la qua­li­té tel qu’il a été approu­vé doit con­tin­uer à être mis en œuvre et entre­te­nu par le pre­sta­tai­re de maniè­re à ce qu’il reste adé­quat et efficace.

3.4. Tou­te modi­fi­ca­ti­on envi­sa­gée du système de gesti­on de la qua­li­té approu­vé ou de la liste des systè­mes d’assu­rance qua­li­té cou­verts par ce der­nier doit être por­tée à l’at­ten­ti­on de l’or­ga­nis­me noti­fié par le fournisseur.

Les modi­fi­ca­ti­ons pro­po­sées doi­vent être exami­nées par l’or­ga­nis­me noti­fié, qui doit déci­der si le système de gesti­on de la qua­li­té modi­fié con­ti­n­ue à satis­fai­re aux exi­gen­ces men­ti­onnées au point 3.2 ou si une rééva­lua­ti­on est nécessaire.

L’or­ga­nis­me noti­fié infor­me le four­nis­seur de sa décis­i­on. La noti­fi­ca­ti­on doit con­te­nir les con­clu­si­ons de l’ex­amen des modi­fi­ca­ti­ons et la décis­i­on d’éva­lua­ti­on motivée.

4. Con­trô­le de la docu­men­ta­ti­on technique.

4.1. En plus de la deman­de visée au point 3, une deman­de auprès d’un orga­nis­me noti­fié de son choix doit être dépo­sée par le four­nis­seur pour l’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que rela­ti­ve au système d’assu­rance qua­li­té que le four­nis­seur a l’in­ten­ti­on de mett­re sur le mar­ché ou en ser­vice et qui est cou­ver­te par le système de gesti­on de la qua­li­té visé au point 3.

4.2. La deman­de doit inclure

(a) le nom et l’adres­se du fournisseur ;

(b) une décla­ra­ti­on écri­te selon laquel­le la même deman­de n’a pas été dépo­sée auprès d’un aut­re orga­nis­me notifié ;

(c) la docu­men­ta­ti­on tech­ni­que men­ti­onnée à l’an­ne­xe IV.

4.3. La docu­men­ta­ti­on tech­ni­que doit être exami­née par l’or­ga­nis­me noti­fié. Le cas échéant, et dans la limi­te de ce qui est néces­saire à l’ac­com­plis­se­ment de ses tâches, l’or­ga­nis­me noti­fié doit avoir plei­ne­ment accès aux don­nées de for­ma­ti­on, de vali­da­ti­on et d’es­sai uti­li­sées, y com­pris, le cas échéant et sous réser­ve de garan­ties de sécu­ri­té, par le biais d’A­PI ou d’aut­res moy­ens tech­ni­ques et outils per­tin­ents per­met­tant un accès à distance.

4.4. Lors de l’ex­amen de la docu­men­ta­ti­on tech­ni­que, l’or­ga­nis­me noti­fié peut exi­ger du four­nis­seur qu’il four­nis­se des preu­ves sup­p­lé­men­tai­res ou qu’il procè­de à des essais com­plé­men­tai­res afin de per­mett­re une éva­lua­ti­on cor­rec­te de la con­for­mi­té du système d’assu­rance qua­li­té avec les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2. Si l’or­ga­nis­me noti­fié n’est pas satis­fait des essais effec­tués par le four­nis­seur, il procè­de lui-même direc­te­ment à des essais appro­priés, le cas échéant.

4.5. Si néces­saire, pour éva­luer la con­for­mi­té du système d’alar­me à haut ris­que avec les exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, après que tous les aut­res moy­ens rai­sonn­ables de véri­fier la con­for­mi­té ont été épui­sés et se sont révé­lés insuf­fi­sants, et sur deman­de moti­vée, l’or­ga­nis­me noti­fié peut éga­le­ment avoir accès aux modè­les de for­ma­ti­on et d’en­traî­ne­ment du système d’alar­me, y com­pris à ses paramè­tres per­tin­ents. Cet accès est sou­mis à la légis­la­ti­on exi­stan­te de l’U­ni­on euro­pé­en­ne en matiè­re de pro­tec­tion de la pro­prié­té intellec­tu­el­le et des secrets commerciaux.

4.6. La décis­i­on de l’or­ga­nis­me noti­fié doit être noti­fi­ée au four­nis­seur ou à son repré­sen­tant auto­ri­sé. La noti­fi­ca­ti­on doit con­te­nir les con­clu­si­ons de l’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que et la décis­i­on d’éva­lua­ti­on motivée.

Si le système d’alar­me est con­for­me aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, l’or­ga­nis­me noti­fié doit déli­v­rer un cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on. Le cer­ti­fi­cat indi­que le nom et l’adres­se du four­nis­seur, les con­clu­si­ons de l’ex­amen, les con­di­ti­ons (le cas échéant) de sa vali­di­té et les don­nées néces­saires à l’i­den­ti­fi­ca­ti­on du système IA.

Le cer­ti­fi­cat et ses anne­xes doi­vent con­te­nir tou­tes les infor­ma­ti­ons per­ti­nen­tes pour per­mett­re l’éva­lua­ti­on de la con­for­mi­té du système d’alar­me et pour per­mett­re le con­trô­le du système d’alar­me en cours d’uti­li­sa­ti­on, le cas échéant.

Lorsque le système d’assu­rance qua­li­té n’est pas con­for­me aux exi­gen­ces énon­cées au cha­pit­re III, sec­tion 2, l’or­ga­nis­me noti­fié refu­se de déli­v­rer un cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on et en infor­me le deman­deur en lui four­nis­sant des rai­sons détail­lées pour son refus.

Si le système IA ne satis­fait pas à l’e­xi­gence rela­ti­ve aux don­nées uti­li­sées pour l’en­traî­ner, une nou­vel­le for­ma­ti­on du système IA sera néces­saire avant la deman­de d’u­ne nou­vel­le éva­lua­ti­on de la con­for­mi­té. Dans ce cas, la décis­i­on d’éva­lua­ti­on moti­vée de l’or­ga­nis­me noti­fié refusant de déli­v­rer le cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on doit con­te­nir des con­sidé­ra­ti­ons spé­ci­fi­ques sur les don­nées de qua­li­té uti­li­sées pour l’en­traî­ne­ment du système IA, en par­ti­cu­lier sur les rai­sons de la non-conformité.

4.7. Tou­te modi­fi­ca­ti­on du système d’assu­rance qua­li­té sus­cep­ti­ble d’af­fec­ter la con­for­mi­té du système d’assu­rance qua­li­té aux exi­gen­ces ou à son objec­tif doit être éva­luée par l’or­ga­nis­me noti­fié qui a déli­v­ré le cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on. Le pre­sta­tai­re doit infor­mer cet orga­nis­me noti­fié de son inten­ti­on d’in­tro­dui­re l’u­ne des modi­fi­ca­ti­ons sus­ment­i­onnées ou s’il prend con­nais­sance de la sur­ven­an­ce de tel­les modi­fi­ca­ti­ons. Les modi­fi­ca­ti­ons envi­sa­gées sont éva­luées par l’or­ga­nis­me noti­fié, qui déter­mi­ne si ces modi­fi­ca­ti­ons néces­si­tent une nou­vel­le éva­lua­ti­on de la con­for­mi­té con­for­mé­ment à l’ar­tic­le 43, para­gra­phe 4, ou si elles peu­vent être abor­dées au moy­en d’un com­plé­ment au cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on. Dans ce der­nier cas, l’or­ga­nis­me noti­fié éva­lue les modi­fi­ca­ti­ons, infor­me le four­nis­seur de sa décis­i­on et, si les modi­fi­ca­ti­ons sont accep­tées, déli­v­re au four­nis­seur un com­plé­ment au cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’Union.

5. Sur­veil­lan­ce du système de gesti­on de la qua­li­té approuvé.

5.1. Le but de la sur­veil­lan­ce effec­tuée par l’or­ga­nis­me noti­fié visé au point 3 est de

s’assurer que le pre­sta­tai­re respec­te dûment les ter­mes et con­di­ti­ons du système de gesti­on de la qua­li­té approuvé.

5.2. Pour les beso­ins de l’éva­lua­ti­on, le four­nis­seur doit per­mett­re à l’or­ga­nis­me noti­fié d’ac­cé­der aux locaux où se dérou­lent la con­cep­ti­on, le déve­lo­p­pe­ment et les essais des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Le four­nis­seur doit en out­re par­ta­ger avec l’or­ga­nis­me noti­fié tou­tes les infor­ma­ti­ons nécessaires.

5.3. L’or­ga­nis­me noti­fié procè­de à des audits péri­odi­ques pour s’assurer que le pre­sta­tai­re main­ti­ent et appli­que le système de gesti­on de la qua­li­té et four­nit au pre­sta­tai­re un rap­port d’au­dit. Dans le cad­re de ces audits, l’or­ga­nis­me noti­fié peut effec­tuer des tests sup­p­lé­men­tai­res sur les systè­mes d’assu­rance qua­li­té pour les­quels un cer­ti­fi­cat d’éva­lua­ti­on de la docu­men­ta­ti­on tech­ni­que de l’U­ni­on a été délivré.

ANNEXE VIII Infor­ma­ti­ons à four­nir lors de l’en­re­gi­stre­ment de systè­mes IA à haut ris­que con­for­mé­ment à l’ar­tic­le 49

Sec­tion A – Infor­ma­ti­ons à four­nir par les four­nis­seurs de systè­mes d’IA à haut ris­que con­for­mé­ment à l’ar­tic­le 49, para­gra­phe 1

Les infor­ma­ti­ons sui­van­tes doi­vent être four­nies et tenues à jour par la suite en ce qui con­cer­ne les systè­mes d’assu­rance-inva­li­di­té à haut ris­que à enre­gi­strer con­for­mé­ment à l’ar­tic­le 49, para­gra­phe 1 :

1. Le nom, l’adres­se et les coor­don­nées du fournisseur ;

2. Lorsque la trans­mis­si­on d’in­for­ma­ti­ons est effec­tuée par une aut­re per­son­ne pour le comp­te du four­nis­seur, le nom, l’adres­se et les coor­don­nées de cet­te personne ;

3. Le nom, l’adres­se et les coor­don­nées du repré­sen­tant auto­ri­sé, le cas échéant ;

4. Le nom com­mer­cial du système IA et tou­te aut­re réfé­rence non ambi­guë per­met­tant l’i­den­ti­fi­ca­ti­on et la tra­ça­bi­li­té du système IA ;

5. Une descrip­ti­on de l’ob­jec­tif visé par le système d’in­tel­li­gence arti­fi­ci­el­le et des com­po­sants et fonc­tions pris en char­ge par ce système d’in­tel­li­gence artificielle ;

6. Une descrip­ti­on de base et con­cise des infor­ma­ti­ons uti­li­sées par le système (don­nées, entrées) et de sa logi­que de fonctionnement ;

7. Le sta­tut du système IA (sur le mar­ché, ou en ser­vice ; plus pla­cé sur le marché/en ser­vice, rappelé) ;

8. Le type, le numé­ro et la date d’ex­pi­ra­ti­on du cer­ti­fi­cat déli­v­ré par l’or­ga­nis­me noti­fié et le nom ou le numé­ro d’i­den­ti­fi­ca­ti­on de cet orga­nis­me noti­fié, le cas échéant ;

9. Une copie scan­née du cer­ti­fi­cat men­ti­onné au point 8, le cas échéant ;

10. Tout État membre dans lequel le système IA a été mis sur le mar­ché, mis en ser­vice ou mis à dis­po­si­ti­on dans l’Union ;

11. Une copie de la décla­ra­ti­on de con­for­mi­té de l’UE visée à l’ar­tic­le 47 ;

12. Ins­truc­tions élec­tro­ni­ques d’uti­li­sa­ti­on ; ces infor­ma­ti­ons ne doi­vent pas être four­nies pour les systè­mes d’IA à haut ris­que dans les domain­es de l’ap­pli­ca­ti­on de la loi ou de la migra­ti­on, de l’a­si­le et de la gesti­on des con­trô­les aux fron­tiè­res men­ti­onnés à l’an­ne­xe III, points 1, 6 et 7 ;

13. Une URL pour des infor­ma­ti­ons sup­p­lé­men­tai­res (facul­ta­tif).


Sec­tion B – Infor­ma­ti­ons à four­nir par les four­nis­seurs de systè­mes d’IA à haut ris­que con­for­mé­ment à l’ar­tic­le 49, para­gra­phe 2

Les infor­ma­ti­ons sui­van­tes doi­vent être four­nies et tenues à jour en ce qui con­cer­ne les systè­mes d’assu­rance inva­li­di­té à enre­gi­strer con­for­mé­ment à l’ar­tic­le 49, para­gra­phe 2 :

1. Le nom, l’adres­se et les coor­don­nées du fournisseur ;

2. Lorsque la trans­mis­si­on d’in­for­ma­ti­ons est effec­tuée par une aut­re per­son­ne pour le comp­te du four­nis­seur, le nom, l’adres­se et les coor­don­nées de cet­te personne ;

3. Le nom, l’adres­se et les coor­don­nées du repré­sen­tant auto­ri­sé, le cas échéant ;

4. Le nom com­mer­cial du système IA et tou­te aut­re réfé­rence non ambi­guë per­met­tant l’i­den­ti­fi­ca­ti­on et la tra­ça­bi­li­té du système IA ;

5. Une descrip­ti­on de l’ob­jec­tif pré­vu du système AI ;

6. La ou les con­di­ti­ons visées à l’ar­tic­le 6, para­gra­phe 3, sur la base des­quel­les le système IA est con­sidé­ré com­me ne pré­sen­tant pas de ris­que élevé ;

7. Un bref résu­mé des rai­sons pour les­quel­les le système IA est con­sidé­ré com­me ne pré­sen­tant pas de ris­que éle­vé en appli­ca­ti­on de la pro­cé­du­re pré­vue à l’ar­tic­le 6, para­gra­phe 3 ;

8. Le sta­tut du système IA (sur le mar­ché, ou en ser­vice ; plus pla­cé sur le marché/en ser­vice, rappelé) ;

9. Tout État membre dans lequel le système IA a été mis sur le mar­ché, mis en ser­vice ou mis à dis­po­si­ti­on dans l’Union.

Sec­tion C – Infor­ma­ti­ons à four­nir par les déployeurs de systè­mes IA à haut ris­que con­for­mé­ment à l’ar­tic­le 49(3)

Les infor­ma­ti­ons sui­van­tes sont four­nies et tenues à jour en ce qui con­cer­ne les systè­mes d’assu­rance-inva­li­di­té à haut ris­que devant être enre­gi­strés con­for­mé­ment à l’ar­tic­le 49 :

1. Le nom, l’adres­se et les coor­don­nées du déployeur ;

2. Le nom, l’adres­se et les coor­don­nées de la per­son­ne sou­met­tant les infor­ma­ti­ons pour le comp­te du déployeur ;

3. L’URL de l’en­trée du système IA dans la base de don­nées de l’UE par son fournisseur ;

4. Un résu­mé des résul­tats de l’éva­lua­ti­on de l’im­pact sur les droits fon­da­men­taux réa­li­sée con­for­mé­ment à l’ar­tic­le 27 ;

5. Un résu­mé de l’éva­lua­ti­on de l’im­pact sur la pro­tec­tion des don­nées effec­tuée con­for­mé­ment à l’ar­tic­le 35 du règle­ment (UE) 2016/679 ou à l’ar­tic­le 27 de la direc­ti­ve (UE) 2016/680, tel que spé­ci­fié à l’ar­tic­le 26, para­gra­phe 8, du pré­sent règle­ment, le cas échéant.

ANNEXE IX Infor­ma­ti­ons à four­nir lors de l’en­re­gi­stre­ment des systè­mes IA à haut ris­que énu­mé­rés à l’an­ne­xe III en ce qui con­cer­ne les essais en con­di­ti­ons réel­les con­for­mé­ment à l’ar­tic­le 60

Les infor­ma­ti­ons sui­van­tes sont four­nies et tenues à jour par la suite en ce qui con­cer­ne les essais en con­di­ti­ons réel­les à enre­gi­strer con­for­mé­ment à l’ar­tic­le 60 :

1. Un numé­ro d’i­den­ti­fi­ca­ti­on uni­que dans tou­te l’U­ni­on du test en con­di­ti­ons réelles ;

2. Le nom et les coor­don­nées du four­nis­seur ou du four­nis­seur poten­tiel et des déployeurs impli­qués dans les tests en con­di­ti­ons réelles ;

3. Une brè­ve descrip­ti­on du système d’IA, de son objec­tif pré­vu et d’aut­res infor­ma­ti­ons néces­saires à l’i­den­ti­fi­ca­ti­on du système ;

4. Un résu­mé des prin­ci­pa­les carac­té­ri­sti­ques du plan de test dans les con­di­ti­ons du mon­de réel ;

5. Infor­ma­ti­on sur la sus­pen­si­on ou l’ar­rêt du test dans les con­di­ti­ons du mon­de réel.

ANNEX X Actes légis­la­tifs de l’U­ni­on sur les systè­mes d’in­for­ma­ti­on à gran­de échel­le dans le domaine de la liber­té, de la sécu­ri­té et de la justice

1. Système d’in­for­ma­ti­on Schengen

(a) Règle­ment (UE) 2018/1860 du Par­le­ment euro­pé­en et du Con­seil du 28 novembre 2018 rela­tif à l’uti­li­sa­ti­on du système d’in­for­ma­ti­on Schen­gen pour le retour des res­sor­tis­sants de pays tiers en séjour irré­gu­lier (JO L 312 du 7.12.2018, p. 1).

(b) Règle­ment (UE) 2018/1861 du Par­le­ment euro­pé­en et du Con­seil du 28 novembre 2018 sur l’é­ta­blis­se­ment, le fonc­tion­ne­ment et l’uti­li­sa­ti­on du système d’in­for­ma­ti­on Schen­gen (SIS) dans le domaine des con­trô­les aux fron­tiè­res, modi­fi­ant la con­ven­ti­on d’ap­pli­ca­ti­on de l’ac­cord de Schen­gen, et modi­fi­ant et rem­pla­çant le règle­ment (CE) n° 1987/2006 (JO L 312 du 7.12.2018, p. 14).

(c) Règle­ment (UE) 2018/1862 du Par­le­ment euro­pé­en et du Con­seil du 28 novembre 2018 sur l’é­ta­blis­se­ment, le fonc­tion­ne­ment et l’uti­li­sa­ti­on du système d’in­for­ma­ti­on Schen­gen (SIS) dans le domaine de la coopé­ra­ti­on poli­ciè­re et de la coopé­ra­ti­on judi­ciai­re en matiè­re péna­le, modi­fi­ant et abro­geant la décis­i­on 2007/533/JHA du Con­seil, et abro­geant le règle­ment (CE) n° 1986/2006 du Par­le­ment euro­pé­en et du Con­seil et la décis­i­on 2010/261/UE de la Com­mis­si­on (JO L 312 du 7.12.2018, p. 56).

2. Système d’in­for­ma­ti­on sur les visas

(a) Règle­ment (UE) 2021/1133 du Par­le­ment euro­pé­en et du Con­seil du 7 juil­let 2021 modi­fi­ant les règle­ments (UE) n° 603/2013, (UE) 2016/794, (UE) 2018/1862, (UE) 2019/816 et (UE) 2019/818 en ce qui con­cer­ne l’é­ta­blis­se­ment des con­di­ti­ons d’ac­cès à d’aut­res systè­mes d’in­for­ma­ti­on de l’UE aux fins du système d’in­for­ma­ti­on sur les visas (JO L 248 du 13.7.2021, p. 1).

(b) Règle­ment (UE) 2021/1134 du Par­le­ment euro­pé­en et du Con­seil du 7 juil­let 2021 modi­fi­ant les règle­ments (CE) n° 767/2008, (CE) n° 810/2009, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1860, (UE) 2018/1861, (UE) 2019/817 et (UE) 2019/1896 du Par­le­ment euro­pé­en et du Con­seil et abro­geant les décis­i­ons du Con­seil 2004/512/CE et 2008/633/JHA, aux fins de la réfor­me du système d’in­for­ma­ti­on sur les visas (OJ L 248, 13.7.2021, p. 11).

3. Eurodac

Règle­ment (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil con­cer­nant la créa­ti­on du système “Euro­dac” pour la com­pa­rai­son des don­nées bio­mé­tri­ques en vue de l’ap­pli­ca­ti­on effec­ti­ve des règle­ments (UE) 2024/… et (UE) 2024/… du Par­le­ment euro­pé­en et du Con­seil et de la direc­ti­ve 2001/55/CE du Con­seil, et pour iden­ti­fier les res­sor­tis­sants de pays tiers et les apa­tri­des en séjour irré­gu­lier, et sur les deman­des de com­pa­rai­son avec les don­nées Euro­dac pré­sen­tées par les auto­ri­tés char­gées de l’ap­pli­ca­ti­on des lois des États mem­bres et Euro­pol à des fins d’ap­pli­ca­ti­on de la loi, modi­fi­ant les règle­ments (UE) 2018/1240 et (UE) 2019/818 du Par­le­ment euro­pé­en et du Con­seil et répé­tant le règle­ment (UE) n° 603/2013 du Par­le­ment euro­pé­en et du Conseil+.

4. Système d’entrée/sortie

Règle­ment (UE) 2017/2226 du Par­le­ment euro­pé­en et du Con­seil du 30 novembre 2017 éta­blis­sant un système d’entrée/sortie (SES) pour l’en­re­gi­stre­ment des don­nées d’en­trée et de sor­tie et le refus des don­nées d’en­trée des res­sor­tis­sants de pays tiers fran­chis­sant les fron­tiè­res exté­ri­eu­res des États mem­bres, et déter­mi­nant les con­di­ti­ons d’ac­cès au SES à des fins d’ap­pli­ca­ti­on de la loi, et modi­fi­ant la con­ven­ti­on d’ap­pli­ca­ti­on de l’ac­cord de Schen­gen et les règle­ments (CE) n° 767/2008 et (UE) n° 1077/2011 (JO L 327 du 9.12.2017, p. 20).

5. Système euro­pé­en d’in­for­ma­ti­on et d’au­to­ri­sa­ti­on de voyage

(a) Règle­ment (UE) 2018/1240 du Par­le­ment euro­pé­en et du Con­seil du 12 sep­tembre 2018 éta­blis­sant un système euro­pé­en d’in­for­ma­ti­on et d’au­to­ri­sa­ti­on de voya­ge (ETIAS) et modi­fi­ant les règle­ments (UE) n° 1077/2011, (UE) n° 515/2014, (UE) 2016/399, (UE) 2016/1624 et (UE) 2017/2226 (OJ L 236, 19.9.2018, p. 1).

(b) Règle­ment (UE) 2018/1241 du Par­le­ment euro­pé­en et du Con­seil du

12 sep­tembre 2018 modi­fi­ant le règle­ment (UE) 2016/794 en vue de l’é­ta­blis­se­ment d’un système euro­pé­en d’in­for­ma­ti­on et d’au­to­ri­sa­ti­on de voya­ge (ETIAS) (JO L 236 du 19.9.2018, p. 72).

6. Système euro­pé­en d’in­for­ma­ti­on sur les dos­siers cri­mi­nels con­cer­nant les res­sor­tis­sants de pays tiers et les apatrides

Règle­ment (UE) 2019/816 du Par­le­ment euro­pé­en et du Con­seil du 17 avril 2019 éta­blis­sant un système cen­tra­li­sé d’i­den­ti­fi­ca­ti­on des États mem­bres détenant des infor­ma­ti­ons sur les con­dam­na­ti­ons de res­sor­tis­sants de pays tiers et de per­son­nes apa­tri­des (ECRIS- TCN), desti­né à com­plé­ter le système euro­pé­en d’in­for­ma­ti­on sur les dos­siers cri­mi­nels et modi­fi­ant le règle­ment (UE) 2018/1726 (JO L 135 du 22.5.2019, p. 1).

7. Interopérabilité

(a) Règle­ment (UE) 2019/817 du Par­le­ment euro­pé­en et du Con­seil du 20 mai 2019 éta­blis­sant un cad­re pour l’in­teropé­ra­bi­li­té des systè­mes d’in­for­ma­ti­on de l’UE dans le domaine des fron­tiè­res et des visas et modi­fi­ant les règle­ments (CE) n° 767/2008, (UE) 2016/399, (UE) 2017/2226, (UE) 2018/1240, (UE) 2018/1726 et (UE) 2018/1861 du Par­le­ment euro­pé­en et du Con­seil et les décis­i­ons du Con­seil 2004/512/CE et 2008/633/JHA (JO L 135 du 22.5.2019, p. 27).

(b) Règle­ment (UE) 2019/818 du Par­le­ment euro­pé­en et du Con­seil du 20 mai 2019 éta­blis­sant un cad­re pour l’in­teropé­ra­bi­li­té des systè­mes d’in­for­ma­ti­on de l’UE dans les domain­es de la coopé­ra­ti­on poli­ciè­re et judi­ciai­re, de l’a­si­le et des migra­ti­ons et modi­fi­ant les règle­ments (UE) 2018/1726, (UE) 2018/1862 et (UE) 2019/816 (JO L 135 du 22.5.2019, p. 85).

ANNEXE XI Docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 53, para­gra­phe 1, point (a) – docu­men­ta­ti­on tech­ni­que pour les four­nis­seurs de modè­les d’IA à usa­ge général

Sec­tion 1 Infor­ma­ti­ons à four­nir par tous les four­nis­seurs de modè­les d’IA à usa­ge général

La docu­men­ta­ti­on tech­ni­que visée à l’ar­tic­le 53, para­gra­phe 1, point (a), doit con­te­nir au moins les infor­ma­ti­ons sui­van­tes, adap­tées à la tail­le et au pro­fil de ris­que du modèle :

1. Une descrip­ti­on géné­ra­le du modè­le d’IA à usa­ge géné­ral, y compris :

(a) les tâches que le modè­le est desti­né à accom­plir et le type et la natu­re des systè­mes IA dans les­quels il peut être intégré ;

(b) les poli­ti­ques d’uti­li­sa­ti­on accep­ta­ble applicables ;

(c) la date de publi­ca­ti­on et les métho­des de distribution ;

(d) l’ar­chi­tec­tu­re et le nombre de paramètres ;

(e) la moda­li­té (par ex. tex­te, image) et le for­mat des entrées et des sorties ;

(f) la licence.

2. Une descrip­ti­on détail­lée des élé­ments du modè­le men­ti­onné au point 1, et des infor­ma­ti­ons per­ti­nen­tes sur le pro­ce­s­sus de déve­lo­p­pe­ment, y com­pris les élé­ments suivants :

(a) les moy­ens tech­ni­ques (par ex. ins­truc­tions d’uti­li­sa­ti­on, infras­truc­tu­re, outils) néces­saires au modè­le d’IA à usa­ge géné­ral pour être inté­g­ré dans des systè­mes d’IA ;

(b) les spé­ci­fi­ca­ti­ons de con­cep­ti­on du modè­le et le pro­ce­s­sus de for­ma­ti­on, y com­pris les métho­do­lo­gies et tech­ni­ques de for­ma­ti­on, les prin­ci­paux choix de con­cep­ti­on, y com­pris la rai­son d’êt­re et les hypo­thè­ses rete­nues ; ce que le modè­le est con­çu pour opti­mi­ser et la per­ti­nence des dif­fér­ents paramè­tres, le cas échéant ;

(c) des infor­ma­ti­ons sur les don­nées uti­li­sées pour la for­ma­ti­on, les tests et la vali­da­ti­on, le cas échéant, y com­pris le type et la pro­ven­an­ce des don­nées et les métho­des de cura­ti­on (par exemp­le, net­to­ya­ge, fil­tra­ge, etc.), le nombre de points de don­nées, leur por­tée et leurs prin­ci­pa­les carac­té­ri­sti­ques ; la maniè­re dont les don­nées ont été obte­nues et sélec­tion­nées ain­si que tou­tes les aut­res mesu­res visa­nt à détec­ter l’ina­dé­qua­ti­on des sources de don­nées et des métho­des de détec­tion des biais iden­ti­fi­a­bles, le cas échéant ;

(d) les res­sour­ces infor­ma­ti­ques uti­li­sées pour for­mer le modè­le (par exemp­le, le nombre d’opé­ra­ti­ons de points flot­tants ), le temps de for­ma­ti­on, et d’aut­res détails per­tin­ents liés à la formation ;

(e) la con­som­ma­ti­on d’é­ner­gie con­nue ou esti­mée du modèle.

En ce qui con­cer­ne le point (e), où la con­som­ma­ti­on d’é­ner­gie du modè­le est incon­nue, la con­som­ma­ti­on d’é­ner­gie peut être basée sur des infor­ma­ti­ons rela­ti­ves aux res­sour­ces infor­ma­ti­ques utilisées.

Sec­tion 2 Infor­ma­ti­ons sup­p­lé­men­tai­res à four­nir par les four­nis­seurs de modè­les d’IA à usa­ge géné­ral pré­sen­tant un ris­que systémique

1. Une descrip­ti­on détail­lée des stra­té­gies d’éva­lua­ti­on, y com­pris les résul­tats de l’éva­lua­ti­on, sur la base des pro­to­co­les et outils d’éva­lua­ti­on publics dis­po­ni­bles ou d’aut­res métho­do­lo­gies d’éva­lua­ti­on. Les stra­té­gies d’éva­lua­ti­on doi­vent inclu­re les critères d’éva­lua­ti­on, les métri­ques et la métho­do­lo­gie d’i­den­ti­fi­ca­ti­on des limitations.

2. Le cas échéant, une descrip­ti­on détail­lée des mesu­res mises en place dans le but de réa­li­ser des tests d’ad­ver­si­té inter­nes et/ou exter­nes (par ex., red team­ing), des adap­t­ati­ons du modè­le, y com­pris l’a­li­gne­ment et le rég­la­ge fin.

3. Le cas échéant, une descrip­ti­on détail­lée de l’ar­chi­tec­tu­re du système expli­quant com­ment les com­po­sants logi­ciels se con­strui­sent ou se nour­ris­sent les uns les aut­res et s’in­tègrent dans le trai­te­ment global.

ANNEXE XII Trans­pa­rence des infor­ma­ti­ons visées à l’ar­tic­le 53, para­gra­phe 1, point (b) – docu­men­ta­ti­on tech­ni­que desti­née aux four­nis­seurs de modè­les d’IA à usa­ge géné­ral et aux four­nis­seurs en aval qui intègrent le modè­le dans leur système d’IA

Les infor­ma­ti­ons men­ti­onnées à l’ar­tic­le 53(1), point (b), doi­vent con­te­nir au moins les élé­ments suivants :

1. Une descrip­ti­on géné­ra­le du modè­le d’IA à usa­ge géné­ral, y compris :

(a) les tâches que le modè­le est desti­né à accom­plir et le type et la natu­re des systè­mes IA dans les­quels il peut être intégré ;

(b) les poli­ti­ques d’uti­li­sa­ti­on accep­ta­ble applicables ;

(c) la date de publi­ca­ti­on et les métho­des de distribution ;

(d) com­ment le modè­le inter­agit, ou peut être uti­li­sé pour inter­agir, avec du maté­ri­el ou des logi­ciels qui ne font pas par­tie du modè­le lui-même, le cas échéant ;

(e) les ver­si­ons des logi­ciels per­tin­ents liés à l’uti­li­sa­ti­on du modè­le d’IA à usa­ge géné­ral, le cas échéant ;

(f) l’ar­chi­tec­tu­re et le nombre de paramètres ;

(g) la moda­li­té (par exemp­le, tex­te, image) et le for­mat des entrées et des sorties ;

(h) la licence pour le modèle.

2. Une descrip­ti­on des élé­ments du modè­le et du pro­ce­s­sus de son déve­lo­p­pe­ment, y compris :

(a) les moy­ens tech­ni­ques (par exemp­le, ins­truc­tions d’uti­li­sa­ti­on, infras­truc­tu­re, outils) néces­saires pour inté­grer le modè­le d’IA à usa­ge géné­ral dans les systè­mes d’IA ;

(b) la moda­li­té (par exemp­le, tex­te, image, etc.) et le for­mat des entrées et des sor­ties et leur tail­le maxi­ma­le (par exemp­le, longueur de la fenêt­re con­tex­tu­el­le, etc.) ;

(c) des infor­ma­ti­ons sur les don­nées uti­li­sées pour la for­ma­ti­on, les tests et la vali­da­ti­on, le cas échéant, y com­pris le type et la pro­ven­an­ce des don­nées et les métho­des de curation.

ANNEXE XIII Critères de dési­gna­ti­on des modè­les d’AI à usa­ge géné­ral pré­sen­tant un ris­que sys­té­mi­que visés à l’ar­tic­le 51

Afin de déter­mi­ner si un modè­le d’IA à usa­ge géné­ral a des capa­ci­tés ou un impact équi­va­lents à ceux défi­nis à l’ar­tic­le 51(1), point (a), la Com­mis­si­on doit prend­re en comp­te les critères suivants :

(a) le nombre de paramè­tres du modèle ;

(b) la qua­li­té ou la tail­le de l’en­sem­ble de don­nées, par exemp­le mesu­rée par des jetons ;

(c) la quan­ti­té de cal­cul uti­li­sée pour ent­raî­ner le modè­le, mesu­rée en opé­ra­ti­ons à points flot­tants ou indi­quée par une com­bi­nai­son d’aut­res varia­bles tel­les que le coût esti­mé de la for­ma­ti­on, le temps esti­mé néces­saire à la for­ma­ti­on ou la con­som­ma­ti­on d’é­ner­gie esti­mée pour la formation ;

(d) les moda­li­tés d’en­trée et de sor­tie du modè­le, tel­les que tex­te à tex­te (modè­les en lan­ga­ge éten­du), tex­te à image, mul­ti­mo­da­li­té, et les seuils de l’é­tat de l’art pour déter­mi­ner les capa­ci­tés à fort impact pour chaque moda­li­té, et le type spé­ci­fi­que d’en­trées et de sor­ties (par exemp­le, séquen­ces biologiques) ;

(e) les points de réfé­rence et les éva­lua­tions des capa­ci­tés du modè­le, y com­pris l’ex­amen du nombre de tâches sans for­ma­ti­on sup­p­lé­men­tai­re, l’ad­ap­ta­bi­li­té à l’app­ren­tis­sa­ge de nou­vel­les tâches distinc­tes, son niveau d’au­to­no­mie et d’é­vo­lu­tivi­té, les outils aux­quels il a accès ;

(f) s’il a un impact important sur le mar­ché inté­ri­eur en rai­son de sa por­tée, qui doit être pré­su­mée lorsqu’il a été mis à la dis­po­si­ti­on d’au moins 10 000 uti­li­sa­teurs pro­fes­si­on­nels enre­gi­strés étab­lis dans l’Union ;

(g) le nombre d’uti­li­sa­teurs finaux inscrits.