déplier | replier

Pré­am­bu­le

Les États mem­bres du Con­seil de l’Eu­ro­pe et les aut­res signa­tai­res s’accordent,

Con­sidé­rant que l’ob­jec­tif du Con­seil de l’Eu­ro­pe est de par­ve­nir à une plus gran­de unité ent­re ses mem­bres, fon­dée en par­ti­cu­lier sur le respect des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit ;

Recon­nais­sant la valeur de la pro­mo­ti­on de la coopé­ra­ti­on ent­re les Par­ties à la pré­sen­te Con­ven­ti­on et de l’ex­ten­si­on de cet­te coopé­ra­ti­on à d’aut­res États qui part­agent les mêmes valeurs ;

Con­sci­ent de l’ac­cé­lé­ra­ti­on des déve­lo­p­pe­ments sci­en­ti­fi­ques et tech­no­lo­gi­ques et des pro­fonds chan­ge­ments appor­tés par les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, qui ont le poten­tiel de pro­mou­voir la pro­spé­ri­té humaine ain­si que le bien-être indi­vi­du­el et social, le déve­lo­p­pe­ment dura­ble, l’é­ga­li­té des sexes et l’é­man­ci­pa­ti­on de tou­tes les femmes et de tou­tes les fil­les, ain­si que d’aut­res objec­tifs et inté­rêts importants, en amé­lio­rant le pro­grès et l’innovation ;

Recon­nais­sant que les acti­vi­tés dans le cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le peu­vent offrir des oppor­tu­ni­tés sans pré­cé­dent pour pro­té­ger et pro­mou­voir les droits de l’hom­me, la démo­cra­tie et le respect de la loi ;

Con­sidé­rant que cer­tai­nes acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le peu­vent por­ter att­ein­te à la dignité humaine et à l’au­to­no­mie indi­vi­du­el­le, aux droits de l’hom­me, à la démo­cra­tie et à l’au­to­ri­té de la loi ;

Con­cer­té par les ris­ques de dis­cri­mi­na­ti­on dans les con­tex­tes numé­ri­ques, en par­ti­cu­lier ceux impli­quant des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, et leur effet poten­tiel de cré­er ou d’ag­gra­ver des iné­ga­li­tés, y com­pris cel­les vécues par les femmes et les indi­vi­dus en situa­ti­on de vul­né­ra­bi­li­té, en ce qui con­cer­ne la jouis­sance de leurs droits humains et leur par­ti­ci­pa­ti­on plei­ne, éga­le et effec­ti­ve aux affai­res éco­no­mi­ques, socia­les, cul­tu­rel­les et politiques ;

Con­cer­née par l’uti­li­sa­ti­on abu­si­ve de systè­mes d’in­tel­li­gence arti­fi­ci­el­le et s’op­po­sant à l’uti­li­sa­ti­on de tels systè­mes à des fins répres­si­ves en vio­la­ti­on du droit inter­na­tio­nal rela­tif aux droits de l’hom­me, y com­pris par le biais de pra­ti­ques de sur­veil­lan­ce et de cen­su­re arbi­trai­res ou illé­ga­les qui éro­dent la vie pri­vée et l’au­to­no­mie individuelle ;

Con­sci­ent du fait que les droits de l’hom­me, la démo­cra­tie et la règ­le de droit sont intrin­sè­quement entrelacés ;

Con­venant de la néces­si­té d’é­ta­b­lir, en prio­ri­té, un cad­re juri­di­que appli­ca­ble au niveau mon­di­al éta­blis­sant des prin­cipes géné­raux com­muns et des règles régis­sant les acti­vi­tés au sein du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, qui pré­ser­ve effi­ca­ce­ment les valeurs par­ta­gées et exploi­te les avan­ta­ges de l’in­tel­li­gence arti­fi­ci­el­le pour la pro­mo­ti­on de ces valeurs d’u­ne maniè­re propi­ce à une inno­va­ti­on responsable ;

Reco­g­nis­ing the need to pro­mo­te digi­tal liter­a­cy, know­ledge about, and trust in the design, deve­lo­p­ment, use and decom­mis­sio­ning of arti­fi­ci­al intel­li­gence systems ;

Recon­nais­sant le carac­tère cad­re de cet­te con­ven­ti­on, qui peut être com­plé­tée par d’aut­res instru­ments pour abor­der des que­sti­ons spé­ci­fi­ques liées aux acti­vi­tés dans le cycle de vie des systè­mes d’in­tel­li­gence artificielle ;

Souli­gnant que la pré­sen­te Con­ven­ti­on est desti­née à répond­re à des défis spé­ci­fi­ques qui se posent tout au long du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et encou­ra­ge la pri­se en comp­te des ris­ques et impacts glo­baux liés à ces tech­no­lo­gies, y com­pris, mais sans s’y limi­ter, la san­té humaine et l’en­vi­ron­ne­ment, ain­si que les aspects socio-éco­no­mi­ques, tels que l’em­ploi et le travail ;

Not­ing rele­vant efforts to advan­ce inter­na­tio­nal under­stan­ding and co-ope­ra­ti­on on arti­fi­ci­al intel­li­gence by other inter­na­tio­nal and supra­na­tio­nal orga­ni­sa­ti­ons and fora ;

Avoir con­sci­ence des instru­ments inter­na­ti­on­aux appli­ca­bles en matiè­re de droits de l’hom­me, tels que la Décla­ra­ti­on uni­ver­sel­le des droits de l’hom­me de 1948, la Con­ven­ti­on pour la pro­tec­tion des droits de l’hom­me et des liber­tés fon­da­men­ta­les de 1950 (STE n° 5), la Con­ven­ti­on inter­na­tio­na­le sur les droits civils et poli­ti­ques de 1966, la Con­ven­ti­on inter­na­tio­na­le sur les droits éco­no­mi­ques, soci­aux et cul­tu­rels de 1966, la Char­te socia­le euro­pé­en­ne de 1961 (STE n° 35), ain­si que leurs pro­to­co­les respec­tifs, et la Char­te socia­le euro­pé­en­ne (révi­sée) de 1996 (STE n° 163) ;

Sen­si­ble éga­le­ment à la Con­ven­ti­on des Nati­ons Unies rela­ti­ve aux droits de l’en­fant de 198a9 et à la Con­ven­ti­on des Nati­ons Unies rela­ti­ve aux droits des per­son­nes han­di­ca­pées de 2006 ;

Con­sci­ent éga­le­ment des droits à la vie pri­vée des indi­vi­dus et de la pro­tec­tion des don­nées per­son­nel­les, tels qu’ils sont appli­ca­bles et con­fé­rés, par exemp­le, par la Con­ven­ti­on de 1981 pour la pro­tec­tion des per­son­nes à l’é­gard du trai­te­ment auto­ma­ti­sé des don­nées à carac­tère per­son­nel (STE n° 108) et ses protocoles ;

Affir­mant l’en­ga­ge­ment des Par­ties à pro­té­ger les droits de l’hom­me, la démo­cra­tie et le respect de la loi, et à pro­mou­voir la fia­bi­li­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le par le biais de la pré­sen­te Convention,

Ont con­ve­nu de ce qui suit :

Rap­port explicatif

6. Le pré­am­bu­le réaf­fir­me l’en­ga­ge­ment des par­ties à pro­té­ger les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit et rap­pel­le les instru­ments juri­di­ques inter­na­ti­on­aux et les trai­tés du Con­seil de l’Eu­ro­pe et des Nati­ons unies qui trai­tent direc­te­ment de sujets rele­vant du champ d’ap­pli­ca­ti­on de la pré­sen­te convention-cadre.

7. Lors de la négo­cia­ti­on et de l’ad­op­ti­on ulté­ri­eu­re de la pré­sen­te Con­ven­ti­on-cad­re, les instru­ments juri­di­ques et poli­ti­ques inter­na­ti­on­aux sui­vants en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier ceux pré­pa­rés par le Con­seil de l’Eu­ro­pe et d’aut­res orga­ni­sa­ti­ons et pro­ce­s­sus inter­na­ti­on­aux, ont été pris en compte :

a) Décla­ra­ti­on du Comi­té des Mini­stres du Con­seil de l’Eu­ro­pe sur les capa­ci­tés de mani­pu­la­ti­on des pro­ce­s­sus algo­rith­mi­ques, adop­tée le 13 février 2019 – Decl(13/02/2019)1 ;

b) Recom­man­da­ti­on sur l’in­tel­li­gence arti­fi­ci­el­le adop­tée par le Con­seil de l’OCDE le 22 mai 2019 (les “Prin­cipes de l’OCDE sur l’in­tel­li­gence artificielle”) ;

c) Recom­man­da­ti­on du Comi­té des mini­stres du Con­seil de l’Eu­ro­pe aux États mem­bres sur l’im­pact des systè­mes algo­rith­mi­ques sur les droits de l’hom­me, adop­tée le 8 avril 2020 – CM/Rec(2020)1 ;

d) Réso­lu­ti­ons et recom­man­da­ti­ons de l’As­sem­blée par­le­men­tai­re du Con­seil de l’Eu­ro­pe, exami­nant les pos­si­bi­li­tés et les ris­ques de l’in­tel­li­gence arti­fi­ci­el­le pour les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit et approu­vant un ensem­ble de prin­cipes éthi­ques fon­da­men­taux qui dev­rai­ent être appli­qués aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le ;[2].

e) Recom­man­da­ti­on de l’U­NESCO sur l’é­thi­que de l’in­tel­li­gence arti­fi­ci­el­le adop­tée le 23 novembre 2021 ;

f) G7 Hiro­shi­ma Pro­cess Inter­na­tio­nal Gui­ding Prin­ci­ples for Orga­ni­sa­ti­ons Deve­lo­ping Advan­ced AI Systems et Hiro­shi­ma Pro­cess Inter­na­tio­nal Code of Con­duct for Orga­nizati­ons Deve­lo­ping Advan­ced AI Systems (adopted on 30 Octo­ber 2023) ; et

g) Règle­ment de l’UE éta­blis­sant des règles har­mo­ni­sées en matiè­re d’in­tel­li­gence arti­fi­ci­el­le (Arti­fi­ci­al Intel­li­gence Act) adop­té le [date exac­te à insé­rer en avril 2024].

8. En out­re, les négo­cia­ti­ons ont été inspi­rées par des élé­ments des décla­ra­ti­ons poli­ti­ques suivantes :

a) Décla­ra­ti­on des chefs d’É­tat et de gou­ver­ne­ment lors du 4e Som­met du Con­seil de l’Eu­ro­pe à Reykja­vík les 16 – 17 mai 2023 ;

b) Décla­ra­ti­on des diri­geants du G7 sur le pro­ce­s­sus d’IA d’Hi­ro­shi­ma du 30 octobre et du 6 décembre 2023 ; et

c) La Décla­ra­ti­on de Bletch­ley par les pays par­ti­ci­pant au Som­met sur la sécu­ri­té de l’in­tel­li­gence arti­fi­ci­el­le, 1 – 2 novembre 2023.

9. Le pré­am­bu­le énon­ce l’ob­jec­tif fon­da­men­tal de la Con­ven­ti­on-cad­re – fai­re en sor­te que le poten­tiel des tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le à pro­mou­voir la pro­spé­ri­té humaine, le bien-être indi­vi­du­el et social et à rend­re not­re mon­de plus pro­duc­tif, inno­vant et sûr, soit exploi­té d’u­ne maniè­re responsable qui respec­te, pro­tège et satis­fas­se les valeurs par­ta­gées par les Par­ties et soit respec­tueu­se des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit.

10. Les auteurs de la pro­po­si­ti­on sou­hai­taient souli­gner que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le offrent des pos­si­bi­li­tés sans pré­cé­dent de pro­té­ger et de pro­mou­voir les droits de l’hom­me, la démo­cra­tie et le respect de la loi. En même temps, ils sou­hai­taient éga­le­ment recon­naît­re qu’il exi­ste de sérieux ris­ques et périls décou­lant de cer­tai­nes acti­vi­tés dans le cycle de vie de l’in­tel­li­gence arti­fi­ci­el­le, tel­les que, par exemp­le, la dis­cri­mi­na­ti­on dans une varié­té de con­tex­tes, l’i­né­ga­li­té ent­re les sexes, l’af­fai­blis­se­ment des pro­ce­s­sus démo­cra­ti­ques, l’att­ein­te à la dignité humaine ou à l’au­to­no­mie indi­vi­du­el­le, ou l’uti­li­sa­ti­on abu­si­ve des systè­mes d’in­tel­li­gence arti­fi­ci­el­le par cer­ta­ins États à des fins répres­si­ves, en vio­la­ti­on du droit inter­na­tio­nal des droits de l’hom­me. Les auteurs de la pro­po­si­ti­on sou­hai­taient éga­le­ment atti­rer l’at­ten­ti­on sur la dignité humaine et l’au­to­no­mie indi­vi­du­el­le en tant que valeurs et prin­cipes fon­da­men­taux qui sont essen­tiels à la plei­ne réa­li­sa­ti­on des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit et qui peu­vent éga­le­ment être affec­tés de maniè­re néga­ti­ve par cer­tai­nes acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les auteurs de la pro­po­si­ti­on sou­hai­taient souli­gner que, lorsqu’ils se réfè­rent aux per­son­nes qui peu­vent être affec­tées par les systè­mes d’in­tel­li­gence arti­fi­ci­el­le créant ou aggra­vant des iné­ga­li­tés, cel­les-ci inclu­ent les per­son­nes dis­cri­mi­nées en fonc­tion de leur “race” [3] ou de leur eth­ni­ci­té, y com­pris les per­son­nes auto­ch­to­nes. Ils sou­hai­taient éga­le­ment souli­gner la néces­si­té d’é­vi­ter la dis­cri­mi­na­ti­on fon­dée sur le sexe, les pré­ju­gés ou d’aut­res obs­ta­cles sys­té­mi­ques, con­for­mé­ment aux obli­ga­ti­ons inter­na­tio­na­les et en accord avec les décla­ra­ti­ons per­ti­nen­tes des Nati­ons unies. En out­re, les systè­mes d’in­tel­li­gence arti­fi­ci­el­le dignes de con­fi­ance inté­gre­ront des prin­cipes tels que ceux énon­cés au cha­pit­re III de la Con­ven­ti­on-cad­re, qui dev­rai­ent s’ap­pli­quer aux acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Enfin, les auteurs de la pro­po­si­ti­on ont plei­ne­ment con­sci­ence que l’uti­li­sa­ti­on crois­s­an­te des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en rai­son de leur natu­re trans­for­ma­tri­ce pour les socié­tés, pose de nou­veaux défis aux droits de l’hom­me, à la démo­cra­tie et à l’É­tat de droit, qui ne sont pas enco­re pré­vi­si­bles au moment de la réd­ac­tion de la proposition.

11. Par con­sé­quent, le pré­am­bu­le pose les jalons d’u­ne série d’ob­li­ga­ti­ons juri­di­quement con­traignan­tes con­te­nues dans la con­ven­ti­on-cad­re, qui visent à garan­tir que les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sus­cep­ti­bles d’in­ter­fé­rer avec le respect des droits de l’hom­me, le fonc­tion­ne­ment de la démo­cra­tie ou le respect de la loi dans les sec­teurs public et pri­vé soi­ent plei­ne­ment con­for­mes à cet­te convention-cadre.

Cha­pit­re I – Dis­po­si­ti­ons générales

Artic­le 1 – Objet et finalité

1. Les dis­po­si­ti­ons de la pré­sen­te Con­ven­ti­on visent à garan­tir que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent plei­ne­ment con­for­mes aux droits de l’hom­me, à la démo­cra­tie et à la prim­au­té du droit.

2. Chaque Par­tie adop­te ou main­ti­ent des mesu­res légis­la­ti­ves, admi­ni­stra­ti­ves ou aut­res appro­priées pour don­ner effet aux dis­po­si­ti­ons de la pré­sen­te Con­ven­ti­on. Ces mesu­res doi­vent être gra­duées et dif­fé­ren­ciées selon la gra­vi­té et la pro­ba­bi­li­té d’ef­fets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit pen­dant le cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Il peut s’a­gir de mesu­res spé­ci­fi­ques ou hori­zon­ta­les qui s’ap­pli­quent indé­pen­dam­ment du type de tech­no­lo­gie utilisé.

3. Afin d’assurer la mise en œuvre effec­ti­ve de ses dis­po­si­ti­ons par les par­ties, la pré­sen­te con­ven­ti­on éta­blit un méca­nis­me de sui­vi et pré­voit une coopé­ra­ti­on internationale.

Rap­port expli­ca­tif
Sur l’ob­jet et le but de la Con­ven­ti­on-cad­re et ses rela­ti­ons avec les régimes et méca­nis­mes exi­stants de pro­tec­tion des droits de l’homme

12. Les para­gra­phes 1 et 2 expo­sent l’ob­jet et le but de la con­ven­ti­on-cad­re, qui est de garan­tir que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent plei­ne­ment con­for­mes aux droits de l’hom­me, à la démo­cra­tie et à l’É­tat de droit. En même temps, il est important de souli­gner que la con­ven­ti­on-cad­re n’a pas pour but de régle­men­ter tous les aspects des acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, ni les tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le en tant que tel­les. Son objet et sa fina­li­té se limi­tent tous deux aux que­sti­ons rela­ti­ves au man­dat du Con­seil de l’Eu­ro­pe, avec un accent sur les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ont le poten­tiel d’in­ter­fé­rer avec les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit.

13. La Con­ven­ti­on-cad­re garan­tit que les obli­ga­ti­ons exi­stan­tes de chaque Par­tie en matiè­re de droits de l’hom­me, de démo­cra­tie et de prim­au­té du droit s’ap­pli­quent éga­le­ment aux acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. En ce sens, la Con­ven­ti­on-cad­re est ali­g­née sur les systè­mes et méca­nis­mes de pro­tec­tion des droits de l’hom­me appli­ca­bles de chaque Par­tie, y com­pris ses obli­ga­ti­ons en ver­tu du droit inter­na­tio­nal et d’aut­res enga­ge­ments inter­na­ti­on­aux, ain­si que sur son droit inter­ne appli­ca­ble. En con­sé­quence, aucu­ne dis­po­si­ti­on de la pré­sen­te Con­ven­ti­on-cad­re n’est desti­née à cré­er de nou­veaux droits de l’hom­me ou de nou­vel­les obli­ga­ti­ons en matiè­re de droits de l’hom­me, ni à por­ter att­ein­te à la por­tée et au con­te­nu des pro­tec­tions exi­stan­tes, mais plutôt, en énon­çant diver­ses obli­ga­ti­ons juri­di­quement con­traignan­tes con­te­nues dans ses cha­pi­t­res II à VI, à faci­li­ter la mise en œuvre effec­ti­ve des obli­ga­ti­ons appli­ca­bles en matiè­re de droits de l’hom­me de chaque Par­tie dans le con­tex­te des nou­veaux défis posés par l’in­tel­li­gence arti­fi­ci­el­le. En même temps, la Con­ven­ti­on-cad­re ren­force le rôle du droit inter­na­tio­nal rela­tif aux droits de l’hom­me et les aspects per­tin­ents des cad­res juri­di­ques nati­on­aux en ce qui con­cer­ne les acti­vi­tés dans le cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ont le poten­tiel d’in­ter­fé­rer avec les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit.

Con­cer­nant les acti­vi­tés dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle

14. Tout au long de son tex­te, la Con­ven­ti­on-cad­re crée diver­ses obli­ga­ti­ons en rap­port avec les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Cet­te réfé­rence au cycle de vie garan­tit une appro­che glo­ba­le des ris­ques liés à l’in­tel­li­gence arti­fi­ci­el­le et de ses effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et le respect de la loi, en couvrant tou­tes les étapes des acti­vi­tés liées aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Appli­quer ces obli­ga­ti­ons à l’en­sem­ble du cycle de vie garan­tit que la Con­ven­ti­on peut cou­vr­ir non seu­le­ment les ris­ques actuels mais aus­si les ris­ques futurs, ce qui est l’un des moy­ens par les­quels les réd­ac­teurs ont cher­ché à fai­re de la Con­ven­ti­on-cad­re une preuve future face à des déve­lo­p­pe­ments tech­no­lo­gi­ques rapi­des et sou­vent impré­vi­si­bles. Il est important de pré­cis­er que, tout au long de la Con­ven­ti­on-cad­re, “au sein” n’est pas uti­li­sé com­me un ter­me tech­ni­que et n’a pas pour but d’a­voir un effet limi­ta­tif sur le con­cept de cycle de vie.

15. Avec cela à l’e­sprit, et sans don­ner une liste exhaus­ti­ve des acti­vi­tés du cycle de vie qui sont spé­ci­fi­ques aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le, les auteurs visent à cou­vr­ir tou­tes les acti­vi­tés depuis la con­cep­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le jus­qu’à son retrait, quel que soit l’ac­teur impli­qué. Il est du choix déli­bé­ré des auteurs de ne pas les spé­ci­fier expli­ci­te­ment, car elles peu­vent dépend­re du type de tech­no­lo­gie et d’aut­res élé­ments con­tex­tu­els et évo­luer dans le temps, mais en s’in­spi­rant des travaux les plus récents de l’OCDE, au moment de la réd­ac­tion, les auteurs don­nent des exemp­les d’ac­ti­vi­tés per­ti­nen­tes : (1) pla­ni­fi­ca­ti­on et con­cep­ti­on, (2) coll­ec­te et trai­te­ment des don­nées, (3) déve­lo­p­pe­ment de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, y com­pris la cons­truc­tion de modè­les et/ou le rég­la­ge fin de modè­les exi­stants pour des tâches spé­ci­fi­ques, (4) test, véri­fi­ca­ti­on et vali­da­ti­on, (5) fourniture/fabrication des systè­mes dis­po­ni­bles pour l’uti­li­sa­ti­on, (6) déploie­ment, (7) explo­ita­ti­on et sur­veil­lan­ce, et (8) retrait. Ces acti­vi­tés se dérou­lent sou­vent de maniè­re ité­ra­ti­ve et ne sont pas néces­saire­ment séquen­ti­el­les. Elles peu­vent éga­le­ment reprend­re dès qu’il y a des chan­ge­ments sub­stan­tiels dans le système ou dans son uti­li­sa­ti­on pré­vue. La décis­i­on de reti­rer un système d’in­tel­li­gence arti­fi­ci­el­le du ser­vice peut être pri­se à tout moment au cours de la pha­se d’ex­plo­ita­ti­on et de surveillance.

Con­cer­nant la mise en œuvre de la Convention-cadre

16. Le para­gra­phe 2 de l’ar­tic­le 1er énon­ce l’appro­che de la mise en œuvre con­ve­nue par les États qui ont négo­cié la con­ven­ti­on-cad­re. Cet­te dis­po­si­ti­on exi­ge des Par­ties qu’el­les don­nent effet aux dis­po­si­ti­ons de la Con­ven­ti­on-cad­re, mais pré­voit éga­le­ment qu’el­les joui­s­sent d’u­ne cer­taine mar­ge de fle­xi­bi­li­té quant à la maniè­re exac­te de don­ner effet aux dis­po­si­ti­ons de la Con­ven­ti­on-cad­re, comp­te tenu de la diver­si­té sous-jacen­te des systè­mes juri­di­ques, des tra­di­ti­ons et des pra­ti­ques ent­re les Par­ties et de l’ex­trê­me varié­té des con­tex­tes d’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans les sec­teurs public et privé.

17. Afin de tenir comp­te des règles et méca­nis­mes exi­stants dans le système juri­di­que inter­ne de chaque Par­tie, le para­gra­phe 2 de l’ar­tic­le 1er et plu­sieurs des obli­ga­ti­ons impo­sent aux Par­ties d’ ”adop­ter ou de main­te­nir” cer­tai­nes mesu­res pour fai­re face aux ris­ques liés à l’in­tel­li­gence arti­fi­ci­el­le. En uti­li­sant “adop­ter ou main­te­nir”, les réd­ac­teurs ont vou­lu offrir aux par­ties une cer­taine sou­ples­se pour s’ac­quit­ter de leurs obli­ga­ti­ons en adop­tant de nou­vel­les mesu­res ou en appli­quant des mesu­res exi­stan­tes, tel­les que des légis­la­ti­ons et des méca­nis­mes qui exi­staient avant l’en­trée en vigueur de la con­ven­ti­on-cad­re. L’uti­li­sa­ti­on de ces deux ter­mes recon­naît que, pour les beso­ins de la mise en œuvre natio­na­le, l’u­ne ou l’aut­re de ces appro­ches peut être tout aus­si suf­fi­san­te. Le para­gra­phe 2 de l’ar­tic­le 1er pré­voit en out­re que ces mesu­res doi­vent être “gra­duées et dif­fé­ren­ciées selon la gra­vi­té et la pro­ba­bi­li­té de l’ap­pa­ri­ti­on d’ef­fets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit”. Cet­te dis­po­si­ti­on indi­que que les mesu­res pri­ses en ver­tu de la con­ven­ti­on-cad­re doi­vent être adap­tées au niveau de ris­que posé par un système d’in­tel­li­gence arti­fi­ci­el­le dans des sphè­res, acti­vi­tés et con­tex­tes spé­ci­fi­ques, le cas échéant, et que cet­te tâche incom­be aux par­ties à la con­ven­ti­on-cad­re de déci­der com­ment con­ci­lier les inté­rêts en pré­sence dans chaque sphè­re, en tenant comp­te des spé­ci­fi­ci­tés des acti­vi­tés du sec­teur pri­vé, de leur cad­re régle­men­tai­re natio­nal et de leur pro­gram­me natio­nal en matiè­re d’in­tel­li­gence arti­fi­ci­el­le, tout en assu­rant la pro­tec­tion et la pro­mo­ti­on des droits de l’hom­me, de la démo­cra­tie et du respect de la loi. Les Par­ties peu­vent éga­le­ment tenir comp­te des spé­ci­fi­ci­tés des acti­vi­tés du sec­teur public tel­les que l’ap­pli­ca­ti­on de la loi, les migra­ti­ons, le con­trô­le des fron­tiè­res, l’a­si­le et le système judiciaire.

18. Il est essen­tiel que, con­for­mé­ment au para­gra­phe 2 de l’ar­tic­le 1, l’ex­amen des que­sti­ons men­ti­onnées com­mence par une éva­lua­ti­on par chaque Par­tie des ris­ques et des inci­den­ces poten­ti­el­les sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit dans un con­tex­te don­né, et par l’ex­amen du main­ti­en ou de l’é­ta­blis­se­ment de mesu­res appro­priées pour fai­re face à ces inci­den­ces. Pour com­prend­re l’im­pact poten­tiel des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, les par­ties dev­rai­ent prend­re en con­sidé­ra­ti­on le con­tex­te plus lar­ge, y com­pris les asy­m­étries de pou­voir qui pour­rai­ent aggra­ver les iné­ga­li­tés et les impacts soci­aux exi­stants. Étant don­né le lar­ge éven­tail de sec­teurs et de cas d’uti­li­sa­ti­on dans les­quels les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont uti­li­sés et pour­rai­ent être déployés à l’a­ve­nir, tels que la dis­tri­bu­ti­on des avan­ta­ges soci­aux, les décis­i­ons rela­ti­ves à la sol­va­bi­li­té des cli­ents poten­tiels, les pro­ce­s­sus de recru­tement et de réten­ti­on du per­son­nel, les pro­cé­du­res de justi­ce péna­le, l’im­mi­gra­ti­on, les pro­cé­du­res d’a­si­le et le con­trô­le des fron­tiè­res, la poli­ce, ain­si que la publi­ci­té ciblée et la sélec­tion de con­te­nu algo­rith­mi­que, cer­ta­ins impacts néga­tifs pour­rai­ent se tra­dui­re par des vio­la­ti­ons des droits de l’hom­me dans l’en­sem­ble de la socié­té. Ils pour­rai­ent aus­si poten­ti­el­le­ment affec­ter la justi­ce socia­le, alté­rer les rela­ti­ons et affec­ter la con­fi­ance ent­re les citoy­ens et le gou­ver­ne­ment, et affec­ter l’in­té­gri­té des pro­ce­s­sus démocratiques.

19. Après avoir soi­gneu­se­ment exami­né les ris­ques respec­tifs et d’aut­res fac­teurs per­tin­ents, chaque par­tie dev­ra déci­der si elle rem­pl­i­ra ses obli­ga­ti­ons en appli­quant les dis­po­si­ti­ons exi­stan­tes ou en actua­li­sant son cad­re régle­men­tai­re natio­nal et, le cas échéant, com­ment. Il faut gar­der à l’e­sprit qu’en ver­tu de ses obli­ga­ti­ons et enga­ge­ments inter­na­ti­on­aux respec­tifs en matiè­re de droits de l’hom­me, chaque Par­tie a déjà mis en place divers méca­nis­mes de pro­tec­tion des droits de l’hom­me et d’ar­bi­tra­ge des con­flits, ain­si que des moda­li­tés spé­ci­fi­ques d’ad­mi­ni­stra­ti­on des règles et régle­men­ta­ti­ons pertinentes.

20. Les Par­ties pour­rai­ent donc, par exemp­le, déci­der de con­tin­uer à uti­li­ser la régle­men­ta­ti­on exi­stan­te, de la sim­pli­fier, de la cla­ri­fier ou de l’a­mé­lio­rer, ou elles pour­rai­ent tra­vail­ler à amé­lio­rer son appli­ca­ti­on ou à sou­te­nir la mise à dis­po­si­ti­on de mesu­res exi­stan­tes plus acce­s­si­bles ou plus dis­po­ni­bles (voir le com­men­tai­re rela­tif aux artic­les 14 – 15 aux para­gra­phes 95 à 104 ci-des­sous). Les Par­ties pour­rai­ent éga­le­ment envi­sa­ger l’ad­op­ti­on de mesu­res nou­vel­les ou sup­p­lé­men­tai­res, qui pour­rai­ent prend­re la for­me d’u­ne légis­la­ti­on, d’u­ne poli­tique ou d’u­ne régle­men­ta­ti­on fon­dée sur des règles, des prin­cipes ou des objec­tifs ; la mise en place de méca­nis­mes et de nor­mes de con­for­mi­té ; une coré­gu­la­ti­on et des accords indu­stri­els visa­nt à faci­li­ter l’au­to­ré­gu­la­ti­on ; ou le recours à diver­ses com­bi­nai­sons de ce qui pré­cè­de. Les mesu­res à adop­ter ou à main­te­nir en ver­tu de la con­ven­ti­on-cad­re peu­vent éga­le­ment con­si­ster en des mesu­res admi­ni­stra­ti­ves et non juri­di­quement con­traignan­tes, des ori­en­ta­ti­ons inter­pré­ta­ti­ves, des cir­culai­res, des méca­nis­mes et pro­ce­s­sus inter­nes ou des décis­i­ons judi­ciai­res, selon ce que chaque par­tie juge appro­prié, con­for­mé­ment à l’ ”appro­che gra­du­el­le et dif­fé­ren­ciée” décri­te à l’ar­tic­le 1er , para­gra­phe 2. Tou­te men­ti­on d’ad­op­ti­on ou de main­ti­en de “mesu­res” dans la pré­sen­te con­ven­ti­on-cad­re peut éga­le­ment être satis­fai­te par des mesu­res admi­ni­stra­ti­ves appropriées.

21. En out­re, pour mett­re en œuvre les prin­cipes et obli­ga­ti­ons énon­cés dans la Con­ven­ti­on-cad­re, une Par­tie peut adop­ter des mesu­res spé­ci­fi­ques à l’IA ou main­te­nir et mett­re à jour des mesu­res dites “hori­zon­ta­les” appli­ca­bles quel que soit le type de tech­no­lo­gie uti­li­sé, com­me par exemp­le la non-dis­cri­mi­na­ti­on, la pro­tec­tion des don­nées et tou­te aut­re légis­la­ti­on qui pour­rait être uti­li­sée pour mett­re en œuvre des prin­cipes et obli­ga­ti­ons spé­ci­fi­ques de la pré­sen­te Convention-cadre.

Con­cer­nant le méca­nis­me de suivi

22. Le para­gra­phe 3 indi­que que, pour assurer la mise en œuvre effec­ti­ve de la con­ven­ti­on-cad­re, cel­le-ci éta­blit un méca­nis­me de sui­vi, qui est défi­ni au cha­pit­re VII, voir le com­men­tai­re aux para­gra­phes 129 à 135, et pré­voit une coopé­ra­ti­on inter­na­tio­na­le, voir le com­men­tai­re de l’ar­tic­le 25, para­gra­phes 137 à 140.


Artic­le 2 – Défi­ni­ti­on des systè­mes d’in­tel­li­gence artificielle

Aux fins de la pré­sen­te con­ven­ti­on, on entend par “système d’in­tel­li­gence arti­fi­ci­el­le” un système basé sur une machi­ne qui, pour des objec­tifs expli­ci­tes ou impli­ci­tes, induit, à par­tir des don­nées qu’il reçoit, la maniè­re de géné­rer des résul­tats tels que des pré­dic­tions, des con­te­nus, des recom­man­da­ti­ons ou des décis­i­ons sus­cep­ti­bles d’in­fluen­cer des envi­ron­ne­ments phy­si­ques ou vir­tuels. Les dif­fér­ents systè­mes d’in­tel­li­gence arti­fi­ci­el­le vari­ent dans leur niveau d’au­to­no­mie et d’ad­ap­ta­bi­li­té après le déploiement.

Rap­port explicatif

23. La défi­ni­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le pre­scri­te dans cet artic­le est tirée de la der­niè­re défi­ni­ti­on révi­sée adop­tée par l’OCDE le 8 novembre 2023. Le choix des auteurs d’uti­li­ser ce tex­te par­ti­cu­lier est signi­fi­ca­tif non seu­le­ment en rai­son de la gran­de qua­li­té des travaux menés par l’OCDE et ses experts, mais aus­si en rai­son de la néces­si­té d’ac­croît­re la coopé­ra­ti­on inter­na­tio­na­le sur le thè­me de l’in­tel­li­gence arti­fi­ci­el­le et de faci­li­ter les efforts visa­nt à har­mo­ni­s­er la gou­ver­nan­ce de l’in­tel­li­gence arti­fi­ci­el­le au niveau mon­di­al, y com­pris par l’har­mo­ni­sa­ti­on de la ter­mi­no­lo­gie per­ti­nen­te, qui per­met éga­le­ment la mise en œuvre cohé­ren­te des dif­fér­ents instru­ments rela­tifs à l’in­tel­li­gence arti­fi­ci­el­le dans les systè­mes juri­di­ques nati­on­aux des parties.

24. La défi­ni­ti­on reflè­te une lar­ge com­pré­hen­si­on de ce que sont les systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier par oppo­si­ti­on à d’aut­res types de systè­mes logi­ciels tra­di­ti­on­nels simp­les basés sur les règles défi­nies uni­quement par des per­son­nes phy­si­ques pour exé­cu­ter auto­ma­ti­quement des opé­ra­ti­ons. Elle vise à garan­tir la pré­cis­i­on et la cer­ti­tu­de juri­di­ques, tout en restant suf­fi­sam­ment abstrai­te et fle­xi­ble pour rester valable mal­gré les évo­lu­ti­ons tech­no­lo­gi­ques futures. La défi­ni­ti­on a été rédi­gée pour les beso­ins de la Con­ven­ti­on-cad­re et n’a pas voca­ti­on à don­ner une signi­fi­ca­ti­on uni­ver­sel­le au ter­me con­cer­né. Les auteurs de la pro­po­si­ti­on ont pris note du mémo­ran­dum expli­ca­tif accom­pa­gnant la défi­ni­ti­on actua­li­sée d’un système d’in­tel­li­gence arti­fi­ci­el­le dans la Recom­man­da­ti­on de l’OCDE sur l’in­tel­li­gence arti­fi­ci­el­le (OECD/LEGAL/0449, 2019, modi­fi­ée en 2023) pour une expli­ca­ti­on plus détail­lée des dif­fér­ents élé­ments de la défi­ni­ti­on. Bien que cet­te défi­ni­ti­on four­nis­se une com­pré­hen­si­on com­mu­ne ent­re les Par­ties de ce que sont les systè­mes d’in­tel­li­gence arti­fi­ci­el­le, les Par­ties peu­vent la pré­cis­er davan­ta­ge dans leurs systè­mes juri­di­ques nati­on­aux pour plus de cer­ti­tu­de et de pré­cis­i­on juri­di­ques, sans limi­ter son champ d’application.

25. Cet­te défi­ni­ti­on doit être lue à la lumiè­re des aut­res dis­po­si­ti­ons per­ti­nen­tes de la con­ven­ti­on-cad­re, qui font réfé­rence (1) aux systè­mes sus­cep­ti­bles d’in­ter­fé­rer avec les droits de l’hom­me, la démo­cra­tie ou l’É­tat de droit et (2) à l’appro­che gra­du­el­le et dif­fé­ren­ciée de l’ar­tic­le 1er et aux élé­ments con­tex­tu­els des dis­po­si­ti­ons indi­vi­du­el­les de la con­ven­ti­on-cad­re (artic­les 4 et 5, voir les com­men­tai­res respec­tifs aux para­gra­phes 37 – 41, 42 – 48 ci-dessous).

Artic­le 3 – Champ d’application

1. Le champ d’ap­pli­ca­ti­on de la pré­sen­te Con­ven­ti­on cou­vre les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui ont le poten­tiel d’in­ter­fé­rer avec les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit com­me suit :

a. Chaque Par­tie appli­que la pré­sen­te Con­ven­ti­on aux acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le ent­re­pri­ses par les auto­ri­tés publi­ques, ou par des acteurs pri­vés agis­sant en leur nom.

b. Chaque Par­tie gère les ris­ques et les impacts résul­tant des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le par des acteurs pri­vés, dans la mesu­re où ils ne sont pas cou­verts par le para­gra­phe a) ci-des­sus, d’u­ne maniè­re con­for­me à l’ob­jet et au but de la pré­sen­te Convention.

Chaque Par­tie pré­cise, dans une décla­ra­ti­on sou­mi­se au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe au moment de la signa­tu­re ou lors du dépôt de son instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’ad­hé­si­on, com­ment elle entend s’ac­quit­ter de cet­te obli­ga­ti­on, soit en appli­quant aux acti­vi­tés des acteurs pri­vés les prin­cipes et obli­ga­ti­ons énon­cés aux cha­pi­t­res II à VI de la pré­sen­te Con­ven­ti­on, soit en prenant d’aut­res mesu­res appro­priées pour satis­fai­re à l’ob­li­ga­ti­on énon­cée au pré­sent para­gra­phe. Les par­ties peu­vent, à tout moment et de la même maniè­re, modi­fier leurs déclarations.

Lorsqu’el­le met en œuvre l’ob­li­ga­ti­on pré­vue au pré­sent para­gra­phe, une Par­tie ne peut déro­ger à ses obli­ga­ti­ons inter­na­tio­na­les en matiè­re de pro­tec­tion des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit, ni en limi­ter l’application.

2. Une Par­tie n’est pas tenue d’ap­pli­quer la pré­sen­te Con­ven­ti­on aux acti­vi­tés du cycle de vie des systè­mes de rens­eig­ne­ment arti­fi­ci­el liées à la pro­tec­tion de ses inté­rêts en matiè­re de sécu­ri­té natio­na­le, étant enten­du que ces acti­vi­tés sont menées d’u­ne maniè­re com­pa­ti­ble avec le droit inter­na­tio­nal appli­ca­ble, y com­pris les obli­ga­ti­ons décou­lant du droit inter­na­tio­nal rela­tif aux droits de l’hom­me, et dans le respect de ses insti­tu­ti­ons et pro­ce­s­sus démocratiques.

3. Sans pré­ju­di­ce de l’ar­tic­le 13 et de l’ar­tic­le 25, para­gra­phe 2, la pré­sen­te Con­ven­ti­on ne s’ap­pli­que pas aux acti­vi­tés de recher­che et de déve­lo­p­pe­ment con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui n’ont pas enco­re été ren­dus dis­po­ni­bles à des fins d’uti­li­sa­ti­on, à moins que des essais ou des acti­vi­tés simi­lai­res ne soi­ent ent­re­pris de maniè­re tel­le qu’ils ris­quent de por­ter att­ein­te aux droits de l’hom­me, à la démo­cra­tie et à l’É­tat de droit.

4. Les que­sti­ons rela­ti­ves à la défen­se natio­na­le n’ent­rent pas dans le champ d’ap­pli­ca­ti­on de la pré­sen­te convention.

Rap­port explicatif

26. Cet­te con­ven­ti­on-cad­re a un lar­ge champ d’ap­pli­ca­ti­on pour cou­vr­ir les acti­vi­tés dans le cycle de vie des systè­mes de rens­eig­ne­ment d’ar­tic­le qui ont le poten­tiel d’in­ter­fé­rer avec les droits de l’hom­me, la démo­cra­tie et l’é­tat de droit.

27. Con­for­mé­ment à la Recom­man­da­ti­on n° R (84) 15 du Comi­té des mini­stres aux États mem­bres rela­ti­ve à la responsa­bi­li­té publi­que du 18 sep­tembre 1984, les auteurs de la pro­po­si­ti­on part­agent l’a­vis selon lequel le ter­me “auto­ri­té publi­que” dési­gne tou­te enti­té de droit public de quel­que type ou de quel­que niveau que ce soit (y com­pris les enti­tés publi­ques supra­na­tio­na­les, éta­ti­ques, régio­na­les, pro­vin­cia­les, muni­ci­pa­les et indé­pen­dan­tes) et tou­te per­son­ne pri­vée lorsqu’el­le exer­ce des pré­ro­ga­ti­ves d’au­to­ri­té publique.

28. Le sous-para­gra­phe 1(a) obli­ge les Par­ties à veil­ler à ce que ces acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent con­for­mes aux dis­po­si­ti­ons de la pré­sen­te Con­ven­ti­on-cad­re lorsqu’el­les sont menées par des auto­ri­tés publi­ques ain­si que par des acteurs pri­vés agis­sant en leur nom. Cela impli­quer­ait une obli­ga­ti­on de se con­for­mer aux dis­po­si­ti­ons de la pré­sen­te con­ven­ti­on-cad­re en ce qui con­cer­ne les acti­vi­tés pour les­quel­les les auto­ri­tés publi­ques délè­guent leurs responsa­bi­li­tés à des acteurs pri­vés ou leur ordon­nent d’a­gir, tel­les que les acti­vi­tés menées par des acteurs pri­vés opé­rant en ver­tu d’un cont­rat avec une auto­ri­té publi­que ou d’u­ne aut­re pre­sta­ti­on pri­vée de ser­vices publics, ain­si que les mar­chés publics et les contrats.

29. Le para­gra­phe 1(b) obli­ge tou­tes les Par­ties à trai­ter les ris­ques et les impacts sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit dans le sec­teur pri­vé, y com­pris pour les acteurs pri­vés, dans la mesu­re où ils ne sont pas déjà cou­verts par le para­gra­phe 1(a). En out­re, les réfé­ren­ces à l’ob­jet et au but ont pour effet d’im­porter tous les con­cepts de l’ar­tic­le 1, c’est-à-dire que s’at­ta­quer aux ris­ques n’est pas sim­ple­ment recon­naît­re ces ris­ques, mais requiert l’ad­op­ti­on ou le main­ti­en de mesu­res légis­la­ti­ves, admi­ni­stra­ti­ves ou aut­res appro­priées pour don­ner effet à cet­te dis­po­si­ti­on ain­si que la coopé­ra­ti­on ent­re les Par­ties com­me dans les dis­po­si­ti­ons rela­ti­ves au méca­nis­me de sui­vi et à la coopé­ra­ti­on inter­na­tio­na­le. Tou­te­fois, l’ob­li­ga­ti­on ne requiert pas néces­saire­ment une légis­la­ti­on sup­p­lé­men­tai­re et les par­ties peu­vent recour­ir à d’aut­res mesu­res appro­priées, y com­pris des mesu­res admi­ni­stra­ti­ves et volon­tai­res. Ain­si, alors que l’ob­li­ga­ti­on est con­traignan­te et que tou­tes les Par­ties dev­rai­ent s’y con­for­mer, la natu­re des mesu­res pri­ses par les Par­ties pour­rait vari­er. En tout état de cau­se, lors de la mise en œuvre de l’ob­li­ga­ti­on visée au para­gra­phe 1, ali­néa b), une Par­tie ne peut déro­ger à ses obli­ga­ti­ons inter­na­tio­na­les en matiè­re de pro­tec­tion des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit, ni en limi­ter l’application.

30. Afin d’assurer la sécu­ri­té juri­di­que et la trans­pa­rence, chaque Par­tie est tenue de pré­cis­er dans une décla­ra­ti­on com­ment elle entend se con­for­mer à l’ob­li­ga­ti­on énon­cée dans le pré­sent para­gra­phe, soit en appli­quant aux acti­vi­tés des acteurs pri­vés les prin­cipes et obli­ga­ti­ons énon­cés aux cha­pi­t­res II à VI de la Con­ven­ti­on-cad­re, soit en prenant d’aut­res mesu­res appro­priées pour satis­fai­re à l’ob­li­ga­ti­on énon­cée dans le pré­sent para­gra­phe. Pour les par­ties qui ont choi­si de ne pas appli­quer les prin­cipes et les obli­ga­ti­ons de la con­ven­ti­on-cad­re en ce qui con­cer­ne les acti­vi­tés d’aut­res acteurs pri­vés, les auteurs du pro­jet s’at­ten­dent à ce que les appro­ches de ces par­ties évo­lu­ent dans le temps, au fur et à mesu­re de l’é­vo­lu­ti­on de leurs appro­ches en matiè­re de régle­men­ta­ti­on du sec­teur privé.

31. Tou­tes les par­ties dev­rai­ent sou­mett­re leurs décla­ra­ti­ons au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe au moment de la signa­tu­re ou lors du dépôt d’un instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’ad­hé­si­on. Étant don­né qu’il est important pour les par­ties à la con­ven­ti­on-cad­re de con­naît­re les décla­ra­ti­ons qui ont été for­mulées, le secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe par­ta­ge­ra immé­dia­te­ment avec les aut­res par­ties les décla­ra­ti­ons reçues. Les par­ties peu­vent, à tout moment et de la même maniè­re, modi­fier leurs déclarations.

32. Tout en main­tenant un lar­ge champ d’ap­pli­ca­ti­on de la Con­ven­ti­on-cad­re, le para­gra­phe 2 pré­voit qu’u­ne Par­tie n’est pas tenue d’ap­pli­quer la Con­ven­ti­on-cad­re aux acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le liées à la pro­tec­tion de ses inté­rêts en matiè­re de sécu­ri­té natio­na­le, quel que soit le type d’en­ti­tés exer­çant les acti­vi­tés en que­sti­on. De tel­les acti­vi­tés doi­vent néan­mo­ins être menées d’u­ne maniè­re com­pa­ti­ble avec les obli­ga­ti­ons juri­di­ques inter­na­tio­na­les appli­ca­bles, car la sécu­ri­té natio­na­le est inclu­se dans le champ d’ap­pli­ca­ti­on de nombreux trai­tés inter­na­ti­on­aux rela­tifs aux droits de l’hom­me, tels que, mais sans s’y limi­ter, la Con­ven­ti­on du Con­seil de l’Eu­ro­pe pour la pro­tec­tion des droits de l’hom­me et des liber­tés fon­da­men­ta­les (CEDH), la Con­ven­ti­on amé­ri­cai­ne rela­ti­ve aux droits de l’hom­me (Pac­te de San José), le Pac­te inter­na­tio­nal des Nati­ons unies rela­tif aux droits civils et poli­ti­ques (PIDCP) et le Pac­te inter­na­tio­nal des Nati­ons unies rela­tif aux droits éco­no­mi­ques, soci­aux et cul­tu­rels (PIDESC). Les acti­vi­tés visa­nt à pro­té­ger les inté­rêts de la sécu­ri­té natio­na­le qui inter­fè­rent avec les droits de l’hom­me doi­vent être pré­vues par la loi, respec­ter l’e­s­sence des droits de l’hom­me et, dans la mesu­re où elles sont appli­ca­bles dans le cad­re des obli­ga­ti­ons sus­ment­i­onnées, con­sti­tuer une mesu­re néces­saire et pro­por­ti­onnée dans une socié­té démo­cra­tique. Ces acti­vi­tés doi­vent éga­le­ment être menées dans le respect des pro­ce­s­sus et insti­tu­ti­ons démo­cra­ti­ques des par­ties, com­me le pré­voit leur légis­la­ti­on natio­na­le, en con­for­mi­té avec le droit inter­na­tio­nal appli­ca­ble. Cet­te excep­ti­on au champ d’ap­pli­ca­ti­on de la Con­ven­ti­on-cad­re ne s’ap­pli­que que si et dans la mesu­re où les acti­vi­tés sont liées à la pro­tec­tion des inté­rêts de la sécu­ri­té natio­na­le. Cet­te dis­po­si­ti­on main­ti­ent dans le champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re les acti­vi­tés con­cer­nant les systè­mes de rens­eig­ne­ment arti­fi­ci­el à dou­ble usa­ge dans la mesu­re où ceux-ci sont desti­nés à être uti­li­sés à d’aut­res fins non liées à la pro­tec­tion des inté­rêts de sécu­ri­té natio­na­le des par­ties et où ils sont con­for­mes aux obli­ga­ti­ons des par­ties au tit­re de l’ar­tic­le 3. Tou­tes les acti­vi­tés régu­liè­res d’ap­pli­ca­ti­on de la loi en matiè­re de pré­ven­ti­on, de détec­tion, d’en­quête et de pour­suite des cri­mes, y com­pris les men­aces cont­re la sécu­ri­té publi­que, restent éga­le­ment dans le champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re si et dans la mesu­re où les inté­rêts de sécu­ri­té natio­na­le des par­ties ne sont pas en jeu.

33. En ce qui con­cer­ne le para­gra­phe 3, la for­mu­la­ti­on reflè­te l’in­ten­ti­on des auteurs de la pro­po­si­ti­on d’ex­clu­re les acti­vi­tés de recher­che et de déve­lo­p­pe­ment du champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re sous cer­tai­nes con­di­ti­ons, à savoir que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le en que­sti­on n’ai­ent pas été mis à dis­po­si­ti­on à des fins d’uti­li­sa­ti­on et que les essais et aut­res acti­vi­tés simi­lai­res ne pré­sen­tent pas un ris­que d’in­ter­fé­rence avec les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit. De tel­les acti­vi­tés exclues du champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re dev­rai­ent en tout état de cau­se être menées dans le respect des droits de l’hom­me et du droit natio­nal appli­ca­bles, ain­si que des nor­mes éthi­ques et pro­fes­si­on­nel­les recon­nues en matiè­re de recher­che scientifique.

34. L’in­ten­ti­on des auteurs de la pro­po­si­ti­on est éga­le­ment de con­sidé­rer que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui sont mis à dis­po­si­ti­on pour être uti­li­sés à la suite de tel­les acti­vi­tés de recher­che et de déve­lo­p­pe­ment dev­rai­ent en prin­ci­pe être con­for­mes à la Con­ven­ti­on-cad­re, y com­pris en ce qui con­cer­ne leur con­cep­ti­on et leur développement.

35. L’exemp­ti­on pour les acti­vi­tés de recher­che et de déve­lo­p­pe­ment con­te­nue dans le para­gra­phe 3 dev­rait être mise en œuvre sans pré­ju­di­ce du prin­ci­pe d’ ”inno­va­ti­on sûre”, voir l’ar­tic­le 13, et de l’é­ch­an­ge ent­re les par­ties d’in­for­ma­ti­ons sur les ris­ques, ain­si que sur les effets posi­tifs ou néga­tifs signi­fi­ca­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit, qui se pro­dui­sent dans des con­tex­tes de recher­che, voir l’ar­tic­le 25, para­gra­phe 2, sur la “coopé­ra­ti­on internationale”.

36. Pour l’ex­clu­si­on des “que­sti­ons rela­ti­ves à la défen­se natio­na­le” du champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re, les auteurs de la pro­po­si­ti­on ont déci­dé d’uti­li­ser un lan­ga­ge tiré de l’ar­tic­le 1, d, des sta­tuts du Con­seil de l’Eu­ro­pe (STE n° 1), qui stipu­le que “[m]es que­sti­ons rela­ti­ves à la défen­se natio­na­le ne relè­vent pas du champ d’ap­pli­ca­ti­on du Con­seil de l’Eu­ro­pe”. Cet­te exemp­ti­on n’im­pli­que pas que les acti­vi­tés rele­vant du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le liés à la défen­se natio­na­le ne sont pas cou­ver­tes par le droit international.

Cha­pit­re II – Obli­ga­ti­ons générales

Artic­le 4 – Pro­tec­tion des droits de l’homme

Chaque Par­tie adop­te ou main­ti­ent des mesu­res pour fai­re en sor­te que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent con­for­mes aux obli­ga­ti­ons en matiè­re de pro­tec­tion des droits de l’hom­me énon­cées dans le droit inter­na­tio­nal appli­ca­ble et dans son droit interne.

Rap­port explicatif

37. Cet­te dis­po­si­ti­on se réfè­re aux obli­ga­ti­ons de chaque Par­tie dans le domaine de la pro­tec­tion des droits de l’hom­me, tel­les qu’el­les sont énon­cées dans le droit inter­na­tio­nal et natio­nal appli­ca­ble, en ce qui con­cer­ne les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

38. En ver­tu du droit inter­na­tio­nal, les par­ties ont le devoir de veil­ler à ce que leur droit inter­ne soit con­for­me à leurs obli­ga­ti­ons juri­di­ques inter­na­tio­na­les, qui com­pren­nent les obli­ga­ti­ons décou­lant des trai­tés inter­na­ti­on­aux qui les lient. Le droit inter­na­tio­nal rela­tif aux droits de l’hom­me éta­blit l’ob­li­ga­ti­on pour chaque Par­tie de respec­ter, de pro­té­ger et de fai­re respec­ter les droits de l’hom­me. Chaque Par­tie a l’ob­li­ga­ti­on de veil­ler à ce que son droit inter­ne soit con­for­me à ses obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’hom­me. Dans le même temps, les par­ties sont libres de choi­sir les voies et moy­ens de mett­re en œuvre leurs obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’homme.

gal obli­ga­ti­ons, à con­di­ti­on que le résul­tat soit con­for­me à ces obli­ga­ti­ons. Il s’a­git d’u­ne obli­ga­ti­on de résul­tat et non d’u­ne obli­ga­ti­on de moy­ens. A cet égard, le prin­ci­pe de sub­si­dia­ri­té est essen­tiel, les Par­ties ayant la responsa­bi­li­té pre­miè­re d’assurer le respect des droits de l’hom­me et de four­nir une répa­ra­ti­on en cas de vio­la­ti­on des droits de l’homme.

39. Vous trou­verez ci-des­sous une liste des prin­ci­paux instru­ments et trai­tés inter­na­ti­on­aux en matiè­re de droits de l’hom­me, tant au niveau mon­di­al que régio­nal, aux­quels les dif­fér­ents États qui ont négo­cié la Con­ven­ti­on-cad­re peu­vent être par­ties (par ord­re chronologique) :

Instru­ments des Nati­ons Unies :

1. La Con­ven­ti­on inter­na­tio­na­le des Nati­ons unies de 1965 sur l’é­li­mi­na­ti­on de tou­tes les for­mes de dis­cri­mi­na­ti­on racia­le (ICERD) ;

2. La Con­ven­ti­on inter­na­tio­na­le des Nati­ons unies rela­ti­ve aux droits civils et poli­ti­ques de 1966 et ses pro­to­co­les facul­ta­tifs (ICCPR) ;

3. La Con­ven­ti­on inter­na­tio­na­le des Nati­ons unies de 1966 rela­ti­ve aux droits éco­no­mi­ques, soci­aux et cul­tu­rels (PIDESC) et son Pro­to­co­le facultatif ;

4. La Con­ven­ti­on des Nati­ons Unies de 1979 sur l’é­li­mi­na­ti­on de tou­tes les for­mes de dis­cri­mi­na­ti­on à l’é­gard des femmes (CEDAW) et son Pro­to­co­le facultatif ;

5. La Con­ven­ti­on des Nati­ons Unies cont­re la tor­tu­re et aut­res pei­nes ou trai­te­ments cruels, inhu­mains ou dégrad­ants de 1984 et son Pro­to­co­le facultatif ;

6. La Con­ven­ti­on des Nati­ons Unies rela­ti­ve aux droits de l’en­fant (CNUDE) de 1989 et ses Pro­to­co­les facultatifs ;

7. La Con­ven­ti­on des Nati­ons Unies pour la pro­tec­tion de tou­tes les per­son­nes cont­re les dis­pa­ri­ti­ons for­cées de 2006 ; et

8. La Con­ven­ti­on des Nati­ons Unies de 2006 rela­ti­ve aux droits des per­son­nes han­di­ca­pées (UNCRPD) et son Pro­to­co­le facultatif.

Con­seil de l’Eu­ro­pe et instru­ments de l’UE :

1. La Con­ven­ti­on de 1950 du Con­seil de l’Eu­ro­pe pour la pro­tec­tion des droits de l’hom­me et des liber­tés fon­da­men­ta­les ((STE n° 5, CEDH) et ses protocoles ;

2. La Char­te socia­le euro­pé­en­ne de 1961 (STE n° 35, CSE) et ses pro­to­co­les et la Char­te euro­pé­en­ne révi­sée de 1996 (STE n° 163) ;

3. Con­ven­ti­on de 1981 pour la pro­tec­tion des per­son­nes à l’é­gard du trai­te­ment auto­ma­ti­sé des don­nées à carac­tère per­son­nel, tel­le qu’a­men­dée (STE n° 108, STCE n° 223) et ses protocoles ;

4. La Con­ven­ti­on euro­pé­en­ne pour la pré­ven­ti­on de la tor­tu­re et des pei­nes ou trai­te­ments inhu­mains ou dégrad­ants de 1987 (STE n° 126) et ses protocoles ;

5. La Con­ven­ti­on de 1997 pour la pro­tec­tion des droits de l’hom­me et de la dignité de l’êt­re humain à l’é­gard des appli­ca­ti­ons de la bio­lo­gie et de la méde­ci­ne : Con­ven­ti­on sur les droits de l’hom­me et la bio­mé­de­ci­ne ((STE n° 164, la Con­ven­ti­on d’O­vie­do) et ses protocoles ;

6. La Con­ven­ti­on-cad­re de 1998 pour la pro­tec­tion des mino­ri­tés natio­na­les (STE n° 157) ;

7. La Char­te des droits fon­da­men­taux de l’U­ni­on euro­pé­en­ne de 2000 (CFR, recon­nue avec la même valeur juri­di­que que les trai­tés en ver­tu de l’ar­tic­le 6 (1) du Trai­té sur l’UE) ;

8. La Con­ven­ti­on 2005 du Con­seil de l’Eu­ro­pe sur l’ac­tion cont­re la trai­te des êtres humains (STCE n° 197) ;

9. La Con­ven­ti­on 2007 du Con­seil de l’Eu­ro­pe sur la pro­tec­tion des enfants cont­re l’ex­plo­ita­ti­on et les abus sexu­els ((STCE n° 201, la Con­ven­ti­on de Lan­za­ro­te) ; et

10. La Con­ven­ti­on 2011 du Con­seil de l’Eu­ro­pe sur la pré­ven­ti­on et la lut­te cont­re la vio­lence à l’é­gard des femmes et la vio­lence dome­stique ((STCE n° 210, la Con­ven­ti­on d’Istanbul) ;

Aut­res instru­ments régionaux :

1. The 1969 Ame­ri­can Con­ven­ti­on on Human Rights (Pact of San José) and its first addi­tio­nal protocols ;

2. La Con­ven­ti­on inter­amé­ri­cai­ne de 1985 pour la pré­ven­ti­on et la répres­si­on de la torture ;

3. La Con­ven­ti­on inter­amé­ri­cai­ne de 1994 sur les dis­pa­ri­ti­ons for­cées de personnes ;

4. The 1994 Inter-Ame­ri­can Con­ven­ti­on on the Pre­ven­ti­on, Punish­ment and Era­di­ca­ti­on of Vio­lence against Women ;

5. La Con­ven­ti­on inter­amé­ri­cai­ne de 1999 sur l’é­li­mi­na­ti­on de tou­tes les for­mes de dis­cri­mi­na­ti­on à l’é­gard des per­son­nes handicapées ;

6. The 2013 Inter-Ame­ri­can Con­ven­ti­on against Racism, Racial Dis­cri­mi­na­ti­on, and Rela­ted Forms of Into­le­rance ; et

7. La Con­ven­ti­on inter­amé­ri­cai­ne de 2015 sur la pro­tec­tion des droits de l’hom­me des per­son­nes âgées.

40. Out­re les obli­ga­ti­ons léga­les décou­lant du droit inter­na­tio­nal rela­tif aux droits de l’hom­me, l’ar­tic­le 4 de la Con­ven­ti­on-cad­re fait éga­le­ment réfé­rence à la pro­tec­tion des droits de l’hom­me dans le droit inter­ne de chaque par­tie. Cel­les-ci com­pren­nent typi­quement les nor­mes et règles con­sti­tu­ti­on­nel­les et aut­res nor­mes sub­or­don­nées, ain­si que les méca­nis­mes de con­trô­le et d’ap­pli­ca­ti­on de leur mise en œuvre, qui visent à pro­té­ger les droits de l’hom­me. Les réd­ac­teurs ont sou­hai­té pré­cis­er que la réfé­rence au droit inter­ne dans cet­te dis­po­si­ti­on et ail­leurs n’a pas pour but de ser­vir de moy­en d’exemp­ti­on aux obli­ga­ti­ons des par­ties de se con­for­mer à leurs obli­ga­ti­ons en ver­tu du droit international.

41. Dans le con­tex­te sus­ment­i­onné, l’ob­li­ga­ti­on géné­ra­le énon­cée à l’ar­tic­le 4 de la con­ven­ti­on-cad­re impo­se aux par­ties de fai­re le point sur leurs obli­ga­ti­ons, cad­res et méca­nis­mes exi­stants en matiè­re de droits de l’hom­me dans leur système juri­di­que natio­nal et, con­for­mé­ment à l’appro­che décri­te à l’ar­tic­le 1, para­gra­phe 2, de veil­ler à ce que les cad­res, règles et méca­nis­mes exi­stants con­ti­nuent de pro­té­ger et de pro­mou­voir les droits de l’hom­me, con­for­mé­ment aux obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’hom­me, et soi­ent suf­fi­sants et effi­caces pour répond­re à l’é­vo­lu­ti­on du pay­sa­ge de l’in­tel­li­gence artificielle.


Artic­le 5 – Inté­gri­té des pro­ce­s­sus démo­cra­ti­ques et respect de la règ­le de droit

1. Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à fai­re en sor­te que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le ne soi­ent pas uti­li­sés
de por­ter att­ein­te à l’in­té­gri­té, à l’in­dé­pen­dance et à l’ef­fi­ca­ci­té des insti­tu­ti­ons et des pro­ce­s­sus démo­cra­ti­ques, y com­pris le prin­ci­pe de la sépa­ra­ti­on des pou­voirs
n de pou­voirs, res
pect de l’in­dé­pen­dance judi­ciai­re et de l’ac­cès à la justice.

2. Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à pro­té­ger ses pro­ce­s­sus démo­cra­ti­ques dans le cad­re des acti­vi­tés rele­vant du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, y com­pris l’ac­cès équi­ta­ble des per­son­nes au débat public et leur par­ti­ci­pa­ti­on à ce débat, ain­si que leur capa­ci­té à for­mu­ler libre­ment des opinions.

Rap­port explicatif

42. Les tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le pos­sè­dent un poten­tiel signi­fi­ca­tif pour amé­lio­rer les valeurs, les insti­tu­ti­ons et les pro­ce­s­sus démo­cra­ti­ques. Les impacts poten­tiels inclu­ent le déve­lo­p­pe­ment d’u­ne com­pré­hen­si­on plus pro­fon­de de la poli­tique chez les citoy­ens, per­met­tant une plus gran­de par­ti­ci­pa­ti­on au débat démo­cra­tique ou amé­lio­rant l’in­té­gri­té de l’in­for­ma­ti­on dans l’e­space civi­que en ligne. Simi­lar­ly, poli­ti­cal repre­sen­ta­ti­ves, can­di­da­tes, public offi­ci­als or public repre­sen­ta­ti­ves can estab­lish clo­ser con­nec­tions with indi­vi­du­als, ulti­m­ate­ly enhan­cing the abili­ty of poli­ti­cal repre­sen­ta­ti­ves, public offi­ci­als or public repre­sen­ta­ti­ves to repre­sent the public more effec­tively. Cet ali­gne­ment ent­re les repré­sen­tants poli­ti­ques, les fonc­tion­n­aires ou les repré­sen­tants publics et les citoy­ens a le poten­tiel de trans­for­mer les cam­pa­gnes élec­to­ra­les et d’a­mé­lio­rer de maniè­re signi­fi­ca­ti­ve le pro­ce­s­sus d’é­la­bo­ra­ti­on des poli­ti­ques, en favo­ri­sant une plus gran­de inclu­si­on, trans­pa­rence et efficacité.

43. Les pré­oc­cu­pa­ti­ons con­cer­nant l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le en poli­tique sont pré­sen­tes depuis long­temps, mais cel­les qui sont spé­ci­fi­quement liées aux démo­cra­ties et au pro­ce­s­sus élec­to­ral se sont inten­si­fi­ées avec les avan­cées tech­no­lo­gi­ques récen­tes. Les appli­ca­ti­ons récem­ment intro­dui­tes de cet­te tech­no­lo­gie émer­gen­te pour­rai­ent poser de nombreu­ses men­aces pour la démo­cra­tie et les droits de l’hom­me, ser­vant d’ou­til puis­sant pour frag­men­ter la sphè­re publi­que et saper la par­ti­ci­pa­ti­on civi­que et la con­fi­ance dans la démo­cra­tie. De tels outils pour­rai­ent per­mett­re à des uti­li­sa­teurs, y com­pris des acteurs mal­veil­lants, de dif­fu­ser de la dés­in­for­ma­ti­on et des infor­ma­ti­ons erro­n­ées qui pour­rai­ent por­ter att­ein­te à l’in­té­gri­té de l’in­for­ma­ti­on (y com­pris par l’uti­li­sa­ti­on de con­te­nus géné­rés par l’IA ou la mani­pu­la­ti­on de con­te­nus authen­ti­ques par l’IA) et, le cas échéant, au droit d’ac­cès à l’in­for­ma­ti­on ; de prend­re des décis­i­ons pré­ju­di­cia­bles à l’é­gard d’in­di­vi­dus, ent­raînant poten­ti­el­le­ment des pra­ti­ques dis­cri­mi­na­toires ; d’in­fluen­cer des décis­i­ons judi­ciai­res, avec des con­sé­quen­ces poten­ti­el­les pour l’in­té­gri­té du système judi­ciai­re ; et d’entre­prend­re une sur­veil­lan­ce illé­ga­le ou arbi­trai­re, ent­raînant des rest­ric­tions de la liber­té d’as­so­cia­ti­on ou de la liber­té d’ex­pres­si­on, et de la vie privée.

44. L’uti­li­sa­ti­on de la tech­no­lo­gie de l’in­tel­li­gence arti­fi­ci­el­le de la maniè­re décri­te ci-des­sus pour­rait fai­re exp­lo­ser les ten­si­ons ou saper la con­fi­ance du public, qui est un élé­ment essen­tiel d’un gou­ver­ne­ment démo­cra­tique effi­cace. L’in­tel­li­gence arti­fi­ci­el­le a la capa­ci­té de géné­rer de fausses infor­ma­ti­ons ou de con­dui­re à l’ex­clu­si­on des pro­ce­s­sus démo­cra­ti­ques d’in­di­vi­dus ou de per­son­nes qui pour­rai­ent être sous-repré­sen­tés ou en situa­ti­on de vul­né­ra­bi­li­té. Elle pour­rait éga­le­ment exa­cer­ber la cura­ti­on de con­te­nu mani­pu­la­tri­ce. Mal­gré ses aspects avan­ta­ge­ux, l’in­tel­li­gence arti­fi­ci­el­le com­por­te le ris­que signi­fi­ca­tif d’a­voir un impact néga­tif sur le pro­ce­s­sus démo­cra­tique et l’e­xer­ci­ce des droits de l’hom­me per­tin­ents. Tou­te­fois, avec la mise en œuvre de garan­ties appro­priées, ces tech­no­lo­gies pour­rai­ent s’a­vé­rer béné­fi­ques pour la démocratie.

45. l’ar­tic­le 5, les auteurs du pro­jet de loi ont sou­hai­té mett­re l’ac­cent sur des con­tex­tes sen­si­bles spé­ci­fi­ques (le para­gra­phe 1 couvrant prin­ci­pa­le­ment les aspects insti­tu­ti­on­nels per­tin­ents et le para­gra­phe 2 les pro­ce­s­sus démo­cra­ti­ques per­tin­ents) dans les­quels l’uti­li­sa­ti­on poten­ti­el­le de l’in­tel­li­gence arti­fi­ci­el­le dev­rait être pré­cé­dée d’u­ne pri­se en comp­te atten­ti­ve des ris­ques pour la démo­cra­tie et l’É­tat de droit et être accom­pa­gnée de règles et de garan­ties appro­priées. Mal­gré l’ab­sence d’u­ne défi­ni­ti­on com­mu­n­é­ment accep­tée de l’ex­pres­si­on “insti­tu­ti­ons et pro­ce­s­sus démo­cra­ti­ques”, la réfé­rence est fai­te à tous les systè­mes de gou­ver­ne­ment avec cer­tai­nes carac­té­ri­sti­ques et insti­tu­ti­ons de base qui sont com­mu­nes à tous les pays démocratiques.

46. Dans la mise en œuvre de ses obli­ga­ti­ons de pro­tec­tion des insti­tu­ti­ons et pro­ce­s­sus démo­cra­ti­ques en ver­tu de l’ar­tic­le 5, les Par­ties peu­vent sou­hai­ter mett­re l’ac­cent, par exemp­le, sur les ris­ques que pré­sen­tent les systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour :

a)le prin­ci­pe de la sépa­ra­ti­on des pou­voirs (dans les bran­ches exé­cu­ti­ve, légis­la­ti­ve et judiciaire) ;

b)un système effi­cace de con­trô­le et d’é­qui­lib­re des pou­voirs ent­re les trois bran­ches du gou­ver­ne­ment, y com­pris une super­vi­si­on effec­ti­ve de la bran­che exécutive ;

c)whe­re appli­ca­ble, a balan­ced dis­tri­bu­ti­on of powers bet­ween dif­fe­rent levels of govern­ment (so-cal­led ver­ti­cal sepa­ra­ti­on of powers) ;

d)le plu­ra­lis­me poli­tique (assu­ré en gran­de par­tie par la pro­tec­tion des droits de l’hom­me, dont le respect est essen­tiel pour une démo­cra­tie flo­ris­s­an­te, tels que la liber­té d’ex­pres­si­on, la liber­té d’as­so­cia­ti­on et la liber­té de réuni­on paci­fi­que ; et l’e­xi­stence de médi­as plu­ra­li­stes et indé­pen­dants et d’un éven­tail de par­tis poli­ti­ques repré­sen­tant des inté­rêts et des points de vue dif­fér­ents) et un accès équi­ta­ble au débat public et une par­ti­ci­pa­ti­on à celui-ci

e)la par­ti­ci­pa­ti­on aux pro­ce­s­sus démo­cra­ti­ques par le biais d’élec­tions libres et équi­ta­bles, et une plu­ra­li­té de for­mes de par­ti­ci­pa­ti­on civi­le et poli­tique significatives ;

f)la règ­le de la majo­ri­té poli­tique asso­ciée au respect des droits des mino­ri­tés politiques ;

g)le respect de la règ­le de droit (com­prenant en géné­ral les prin­cipes de léga­li­té, de cer­ti­tu­de juri­di­que et de non-arbi­trai­re) et le prin­ci­pe de l’ac­cès à la justi­ce et de sa bon­ne admi­ni­stra­ti­on ; et

h)le respect du prin­ci­pe de l’in­dé­pen­dance du pou­voir judiciaire.

47. En out­re, l’in­té­gri­té de la démo­cra­tie et de ses pro­ce­s­sus repo­se sur deux hypo­thè­ses importan­tes men­ti­onnées dans l’ar­tic­le 7, à savoir que les indi­vi­dus ont une auto­no­mie (capa­ci­té de for­mer une opi­ni­on et d’a­gir sur cel­le-ci) ain­si qu’u­ne influence (capa­ci­té d’in­fluen­cer les décis­i­ons pri­ses en leur nom). Les tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le peu­vent ren­forcer ces capa­ci­tés mais, inver­se­ment, elles peu­vent aus­si les men­acer ou les saper. C’est pour cet­te rai­son que le para­gra­phe 2 de la dis­po­si­ti­on fait réfé­rence à la néces­si­té d’ad­op­ter ou de main­te­nir des mesu­res qui visent à pro­té­ger “les droits de l’homme”.

la capa­ci­té [des indi­vi­dus] à for­mer libre­ment leurs opi­ni­ons”. En ce qui con­cer­ne les uti­li­sa­ti­ons de l’in­tel­li­gence arti­fi­ci­el­le dans le sec­teur public, il pour­rait s’a­gir, par exemp­le, de mesu­res géné­ra­les de cyber­sé­cu­ri­té cont­re l’in­gé­rence étran­gè­re mal­veil­lan­te dans le pro­ce­s­sus élec­to­ral ou de mesu­res visa­nt à lut­ter cont­re la dif­fu­si­on d’in­for­ma­ti­ons erro­n­ées et de désinformation.

48. En même temps, cet­te dis­po­si­ti­on n’a pas pour but de cré­er, de rédui­re, d’é­tendre ou de modi­fier de quel­que maniè­re que ce soit les nor­mes exi­stan­tes appli­ca­bles en matiè­re de droits de l’hom­me, y com­pris la liber­té d’ex­pres­si­on (com­me pour l’ex­pres­si­on poli­tique), la liber­té d’as­so­cia­ti­on et la liber­té de réuni­on, tel­les qu’el­les sont pré­vues par les obli­ga­ti­ons inter­na­tio­na­les et le droit inter­ne rela­tif aux droits de l’hom­me en vigueur dans chaque Partie.

Cha­pit­re III – Prin­cipes rela­tifs aux acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence artificielle


Artic­le 6 – Appro­che générale

Le pré­sent cha­pit­re énon­ce les prin­cipes géné­raux com­muns que chaque Par­tie doit mett­re en œuvre à l’é­gard des systè­mes d’in­tel­li­gence arti­fi­ci­el­le d’u­ne maniè­re adap­tée à son système juri­di­que inter­ne et aux aut­res obli­ga­ti­ons pré­vues par la pré­sen­te Convention.

Rap­port explicatif

49. Cet­te dis­po­si­ti­on indi­que clai­re­ment que les prin­cipes con­te­nus dans ce cha­pit­re doi­vent être inté­g­rés dans les appro­ches natio­na­les des Par­ties en matiè­re de régle­men­ta­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. En tant que tels, ils sont déli­bé­ré­ment con­çus à un haut niveau de géné­ra­li­té, avec l’in­ten­ti­on qu’ils soi­ent des exi­gen­ces pri­mor­dia­les qui pui­s­sent être appli­quées avec sou­ples­se dans une varié­té de con­tex­tes en évo­lu­ti­on rapi­de. Elles sont éga­le­ment puri­stes, expri­ment la rai­son der­riè­re la règ­le et ont une appli­ca­ti­on très lar­ge à un lar­ge éven­tail de circonstances.

50. Les réd­ac­teurs ont sou­hai­té pré­cis­er que la mise en œuvre de ce cha­pit­re, con­for­mé­ment aux obli­ga­ti­ons énon­cées aux artic­les 4 et 5, dev­rait être effec­tuée par chaque par­tie con­for­mé­ment à l’appro­che décri­te à l’ar­tic­le 1er , para­gra­phe 2, d’u­ne maniè­re adap­tée à son système juri­di­que natio­nal, et en tenant éga­le­ment comp­te des aut­res obli­ga­ti­ons con­te­nues dans la pré­sen­te convention-cadre.

51. Ce point est par­ti­cu­liè­re­ment important dans la mesu­re où, com­me men­ti­onné pré­cé­dem­ment, en ver­tu de leurs obli­ga­ti­ons inter­na­tio­na­les respec­ti­ves en matiè­re de droits de l’hom­me, chaque par­tie dis­po­se déjà d’un régime juri­di­que détail­lé de pro­tec­tion des droits de l’hom­me avec son pro­pre ensem­ble de règles, de prin­cipes et de pra­ti­ques con­cer­nant la por­tée, le con­te­nu des droits et les éven­tu­el­les rest­ric­tions, déro­ga­ti­ons ou excep­ti­ons à ces droits, ain­si que le fonc­tion­ne­ment des méca­nis­mes de con­trô­le et d’ap­pli­ca­ti­on applicables.

52. En out­re, rien dans la pré­sen­te Con­ven­ti­on-cad­re n’est cen­sé affec­ter les obli­ga­ti­ons exi­stan­tes en matiè­re de droits de l’hom­me lorsqu’el­les se chevauch­ent avec les prin­cipes énon­cés au Cha­pit­re III.


Artic­le 7 – Dignité humaine et auto­no­mie individuelle

Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à respec­ter la dignité humaine et l’au­to­no­mie indi­vi­du­el­le en ce qui con­cer­ne les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

53. Cet­te dis­po­si­ti­on souli­gne l’im­portance de la dignité humaine et de l’au­to­no­mie indi­vi­du­el­le dans le cad­re d’u­ne régle­men­ta­ti­on et d’u­ne gou­ver­nan­ce cen­trées sur l’hom­me des acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re. Les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le ne doi­vent pas con­dui­re à la dés­hu­ma­ni­sa­ti­on des indi­vi­dus, saper leur auto­no­mie ou les rédui­re à de simp­les points de don­nées, ni anthro­po­mor­phiser les systè­mes d’in­tel­li­gence arti­fi­ci­el­le d’u­ne maniè­re qui inter­fè­re avec la dignité humaine. La dignité humaine exi­ge de recon­naît­re la com­ple­xi­té et la rich­es­se de l’i­den­ti­té, de l’expé­ri­ence, des valeurs et des émo­ti­ons humaines.

54. Uphol­ding human dignity implies respec­ting the inher­ent value and worth of each indi­vi­du­al, regard­less of their back­ground, cha­rac­te­ri­stics, or cir­cum­stances and refers in par­ti­cu­lar to the way in which all human beings should be trea­ted. La dignité de la per­son­ne humaine étant uni­ver­sel­le­ment recon­nue com­me con­sti­tu­ant le fon­de­ment des droits de l’homme[4], la réfé­rence à cel­le-ci com­me pre­mier prin­ci­pe du cha­pit­re III souli­gne le carac­tère glo­bal de la Con­ven­ti­on-cad­re, puis­que tou­tes les Par­ties recon­nais­sent la dignité inhé­ren­te de la per­son­ne humaine com­me fon­de­ment sous-jacent des droits de l’hom­me, de la par­ti­ci­pa­ti­on démo­cra­tique et de la règ­le de l’unanimité.

aw.

55. L’au­to­no­mie indi­vi­du­el­le est un aspect important de la dignité humaine et se réfè­re à la capa­ci­té des indi­vi­dus à s’au­to­dé­ter­mi­ner, c’est-à-dire à fai­re des choix et des décis­i­ons, y com­pris sans con­train­te, et à viv­re leur vie en tou­te liber­té. Dans le con­tex­te de l’in­tel­li­gence arti­fi­ci­el­le, l’au­to­no­mie indi­vi­du­el­le exi­ge que les indi­vi­dus aient un con­trô­le sur l’uti­li­sa­ti­on et l’im­pact des tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le dans leur vie, et que

leur pou­voir et leur auto­no­mie ne sont pas dimi­n­ués pour autant. La régle­men­ta­ti­on cen­trée sur l’êt­re humain recon­naît l’im­portance de per­mett­re aux indi­vi­dus de façon­ner leurs expé­ri­en­ces avec l’in­tel­li­gence arti­fi­ci­el­le, en veil­lant à ce que ces tech­no­lo­gies ren­for­cent leur auto­no­mie plutôt que de la vio­ler. Les auteurs de la pro­po­si­ti­on ont con­sidé­ré que la réfé­rence à ce con­cept dans cet­te con­ven­ti­on-cad­re était par­ti­cu­liè­re­ment appro­priée comp­te tenu de la capa­ci­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le à imi­ter et à manipuler.


Artic­le 8 – Trans­pa­rence et contrôle

Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à garan­tir que des exi­gen­ces de trans­pa­rence et de con­trô­le appro­priées, adap­tées aux con­tex­tes et aux ris­ques spé­ci­fi­ques, sont en place en ce qui con­cer­ne les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, y com­pris en ce qui con­cer­ne l’i­den­ti­fi­ca­ti­on du con­te­nu géné­ré par les systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

56. En rai­son de cer­tai­nes carac­té­ri­sti­ques qui distin­guent les systè­mes d’in­tel­li­gence arti­fi­ci­el­le des systè­mes infor­ma­ti­ques tra­di­ti­on­nels, et qui peu­vent inclu­re la com­ple­xi­té, l’o­pa­ci­té, l’ad­ap­ta­bi­li­té et dif­fér­ents degrés d’au­to­no­mie, les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui relè­vent du champ d’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re néces­si­tent des garan­ties appro­priées sous la for­me de méca­nis­mes de trans­pa­rence et de contrôle.

57. Le prin­ci­pe de trans­pa­rence énon­cé à l’ar­tic­le 8 se réfè­re à l’ou­ver­tu­re et à la clar­té dans la gou­ver­nan­ce des acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et signi­fie que les pro­ce­s­sus décis­i­on­nels et le fonc­tion­ne­ment géné­ral des systè­mes d’in­tel­li­gence arti­fi­ci­el­le doi­vent être com­pré­hen­si­bles et acce­s­si­bles aux acteurs de l’in­tel­li­gence arti­fi­ci­el­le con­cer­nés et, si néces­saire et appro­prié, aux par­ties pren­an­tes con­cer­nées. Dans cer­ta­ins cas, cela pour­rait éga­le­ment impli­quer la four­ni­tu­re d’in­for­ma­ti­ons sup­p­lé­men­tai­res, y com­pris, par exemp­le, sur les algo­rith­mes uti­li­sés, sous réser­ve de la sécu­ri­té, de la pro­prié­té com­mer­cia­le et intellec­tu­el­le et d’aut­res con­sidé­ra­ti­ons, com­me indi­qué au para­gra­phe 62 ci-des­sous. Les moy­ens d’assurer la trans­pa­rence dépen­drai­ent de nombreux fac­teurs dif­fér­ents tels que, par exemp­le, le type de système d’in­tel­li­gence arti­fi­ci­el­le, le con­tex­te de son uti­li­sa­ti­on ou son rôle, et les anté­cé­dents de l’ac­teur con­cer­né ou de la par­tie pren­an­te affec­tée. En out­re, les mesu­res per­ti­nen­tes inclu­ent, le cas échéant, l’en­re­gi­stre­ment de con­sidé­ra­ti­ons clés tel­les que la pro­ven­an­ce des don­nées, les métho­do­lo­gies de for­ma­ti­on, la vali­di­té des sources de don­nées, la docu­men­ta­ti­on et la trans­pa­rence sur la for­ma­ti­on, les tests et la vali­da­ti­on des don­nées uti­li­sées, les efforts de miti­ga­ti­on des ris­ques, et les pro­ce­s­sus et décis­i­ons mis en œuvre, afin d’ai­der à une com­pré­hen­si­on glo­ba­le de la maniè­re dont les résul­tats du système d’in­tel­li­gence arti­fi­ci­el­le sont déri­vés et ont un impact sur les droits de l’hom­me, la démo­cra­tie et l’ord­re juri­di­que. Cela con­tri­buera en par­ti­cu­lier à garan­tir la responsa­bi­li­té et à per­mett­re aux per­son­nes con­cer­nées de con­te­ster l’uti­li­sa­ti­on ou les résul­tats du système d’in­tel­li­gence arti­fi­ci­el­le, le cas échéant (voir le com­men­tai­re de l’ar­tic­le 14, para­gra­phes 95 à 102).

58. Pro­vi­ding trans­pa­ren­cy about an arti­fi­ci­al intel­li­gence system could the­r­e­fo­re requi­re com­mu­ni­ca­ting appro­pria­te infor­ma­ti­on about the system (such as, for exam­p­le, known limi­ta­ti­ons, assump­ti­ons and engi­nee­ring choices made during design, fea­tures, details of the under­ly­ing models or algo­rith­ms, trai­ning methods and qua­li­ty assu­rance pro­ce­s­ses). Le ter­me de ‘trans­pa­rence algo­rith­mi­que’ est sou­vent uti­li­sé pour décr­i­re l’ou­ver­tu­re sur le but, la struc­tu­re et les actions sous-jacen­tes d’un système à base d’al­go­rith­mes. En out­re, la trans­pa­rence peut impli­quer, le cas échéant, d’in­for­mer les per­son­nes con­cer­nées ou le grand public sur les détails des don­nées uti­li­sées pour cré­er, ent­raî­ner et exploi­ter le système et la pro­tec­tion des don­nées per­son­nel­les, ain­si que sur l’ob­jec­tif du système et la maniè­re dont il a été con­çu, testé et déployé. La trans­pa­rence dev­rait éga­le­ment inclu­re l’in­for­ma­ti­on des per­son­nes con­cer­nées sur le trai­te­ment des infor­ma­ti­ons et les types et niveaux d’au­to­ma­tisa­ti­on uti­li­sés pour prend­re des décis­i­ons con­sé­quen­tes, ain­si que sur les ris­ques liés à l’uti­li­sa­ti­on du système d’in­tel­li­gence arti­fi­ci­el­le. La trans­pa­rence pour­rait en out­re faci­li­ter la pos­si­bi­li­té pour les par­ties ayant des inté­rêts légiti­mes, y com­pris les déten­teurs de droits d’au­teur, d’e­xer­cer et de fai­re valoir leurs droits de pro­prié­té intellectuelle.

59. La dis­po­si­ti­on pré­voit éga­le­ment des mesu­res rela­ti­ves à l’i­den­ti­fi­ca­ti­on du con­te­nu géné­ré par l’IA afin d’é­vi­ter le ris­que de décep­ti­on et de per­mett­re la distinc­tion ent­re le con­te­nu authen­tique géné­ré par l’hom­me et le con­te­nu géné­ré par l’IA, car il devi­ent de plus en plus dif­fi­ci­le pour les per­son­nes de l’i­den­ti­fier. De tel­les mesu­res pour­rai­ent inclu­re des tech­ni­ques tel­les que l’é­ti­que­ta­ge et le mar­quage à l’en­cre – qui impli­quent géné­ra­le­ment l’in­té­gra­ti­on d’u­ne signa­tu­re recon­naissa­ble dans la sor­tie du système d’in­tel­li­gence arti­fi­ci­el­le – en fonc­tion de la dis­po­ni­bi­li­té de ces tech­no­lo­gies et de leur effi­ca­ci­té prou­vée, de l’é­tat de l’art géné­ra­le­ment recon­nu et des spé­ci­fi­ci­tés des dif­fér­ents types de con­te­nu. Pro­mou­voir l’uti­li­sa­ti­on de stan­dards tech­ni­ques, de licen­ces open-source et de la co
lla­bo­ra­ti­on de cher­cheurs et de déve­lo­p­peurs sou­ti­ent le déve­lo­p­pe­ment de systè­mes d’in­tel­li­gence arti­fi­ci­el­le plus trans­par­ents à long terme.

60. Il est important de souli­gner deux aspects importants du prin­ci­pe de trans­pa­rence, à savoir e
xplaina­bi­li­ty et inter­pré­ta­bi­li­té. Le site
Le ter­me “expli­ca­bi­li­té” se réfè­re à la capa­ci­té de four­nir, sous réser­ve de faisa­bi­li­té tech­ni­que et en tenant comp­te de l’é­tat de l’art géné­ra­le­ment recon­nu, des expli­ca­ti­ons suf­fi­sam­ment com­pré­hen­si­bles sur les rai­sons pour les­quel­les un système d’in­tel­li­gence arti­fi­ci­el­le four­nit des infor­ma­ti­ons, des pré­vi­si­ons, des con­te­nus, des recom­man­da­ti­ons ou des décis­i­ons, ce qui est par­ti­cu­liè­re­ment cru­cial dans les domain­es sen­si­bles tels que la san­té, la finan­ce, l’im­mi­gra­ti­on, les ser­vices fron­ta­liers et la justi­ce péna­le, où la com­pré­hen­si­on du rai­son­ne­ment der­riè­re les décis­i­ons pro­dui­tes ou assi­s­tées par un système d’in­tel­li­gence arti­fi­ci­el­le est essen­ti­el­le. Dans de tels cas, la trans­pa­rence pour­rait, par exemp­le, prend­re la for­me d’u­ne liste de fac­teurs que le système d’in­tel­li­gence arti­fi­ci­el­le prend en con­sidé­ra­ti­on lorsqu’il infor­me ou prend une décision.

61. Un aut­re aspect important de la trans­pa­rence est l’in­ter­pré­ta­bi­li­té, qui se réfè­re à la pos­si­bi­li­té de com­prend­re com­ment un système d’in­tel­li­gence arti­fi­ci­el­le fait ses pré­dic­tions ou ses décis­i­ons ou, en d’aut­res ter­mes, la mesu­re dans laquel­le les résul­tats des systè­mes d’in­tel­li­gence arti­fi­ci­el­le peu­vent être ren­dus acce­s­si­bles et com­pré­hen­si­bles aux experts et aux non-experts. Cela impli­que de rend­re le fonc­tion­ne­ment inter­ne, la logi­que et les pro­ce­s­sus de décis­i­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le com­pré­hen­si­bles et acce­s­si­bles aux uti­li­sa­teurs humains, y com­pris les déve­lo­p­peurs, les par­ties pren­an­tes et les uti­li­sa­teurs finaux, ain­si que les per­son­nes con­cer­nées. Ces deux aspects sont éga­le­ment essen­tiels pour satis­fai­re aux exi­gen­ces men­ti­onnées aux artic­les 12, 13 et 14 en géné­ral et au para­gra­phe (b) en par­ti­cu­lier, ain­si qu’à l’ar­tic­le 16. En out­re, les auteurs du pro­jet de loi ont sou­hai­té souli­gner que la trans­pa­rence dans le con­tex­te des systè­mes d’in­tel­li­gence arti­fi­ci­el­le est sou­mi­se à des limi­ta­ti­ons tech­no­lo­gi­ques – sou­vent, le che­min pré­cis menant à un résul­tat par­ti­cu­lier d’un système d’in­tel­li­gence arti­fi­ci­el­le n’est pas faci­le­ment acce­s­si­ble, même à ceux qui le con­çoi­vent ou le déploi­ent. La réa­li­sa­ti­on du prin­ci­pe de trans­pa­rence dans de tel­les cir­con­stances est une que­sti­on de degré, d’é­tat de l’art, de cir­con­stances et de contexte.

62. Étant don­né que la divul­ga­ti­on de cer­tai­nes de ces infor­ma­ti­ons dans un sou­ci de trans­pa­rence peut aller à l’en­cont­re de la vie pri­vée, de la con­fi­den­tia­li­té (y com­pris, par exemp­le, les secrets com­mer­ci­aux), de la sécu­ri­té natio­na­le, de la pro­tec­tion des droits des tiers, de l’ord­re public, de l’in­dé­pen­dance de la justi­ce ain­si que d’aut­res con­sidé­ra­ti­ons et exi­gen­ces léga­les, dans la mise en œuvre de ce prin­ci­pe, les par­ties sont tenues de trou­ver un juste équi­lib­re ent­re les dif­fér­ents inté­rêts en jeu et de pro­cé­der aux aju­stem­ents néces­saires dans les cad­res per­tin­ents sans alté­rer ni modi­fier le régime de base du droit appli­ca­ble en matiè­re de droits de l’homme.

63. En ce qui con­cer­ne le deu­xiè­me prin­ci­pe men­ti­onné dans la pré­sen­te dis­po­si­ti­on, la sur­veil­lan­ce dans le con­tex­te des systè­mes d’in­tel­li­gence arti­fi­ci­el­le se réfè­re à divers méca­nis­mes, pro­ce­s­sus et cad­res con­çus pour sur­veil­ler, éva­luer et gui­der les acti­vi­tés au cours du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Ceux-ci peu­vent poten­ti­el­le­ment con­si­ster en des cad­res légaux, poli­ti­ques et régle­men­tai­res, des recom­man­da­ti­ons, des lignes direc­tri­ces éthi­ques, des codes de pra­tique, des pro­gram­mes d’au­dit et de cer­ti­fi­ca­ti­on, des outils de détec­tion et d’at­té­nua­ti­on des biais. Ils pour­rai­ent éga­le­ment inclu­re des orga­nes et des comi­tés de sur­veil­lan­ce, des auto­ri­tés com­pé­ten­tes tel­les que des auto­ri­tés de con­trô­le sec­to­ri­el­les, des auto­ri­tés de pro­tec­tion des don­nées, des orga­nis­mes char­gés de l’é­ga­li­té et des droits de l’hom­me, des insti­tu­ti­ons natio­na­les des droits de l’hom­me (INDH) ou des agen­ces de pro­tec­tion des con­som­ma­teurs, un sui­vi con­tinu des capa­ci­tés de déve­lo­p­pe­ment actu­el­les et un audit, des con­sul­ta­ti­ons et un enga­ge­ment du public, une gesti­on des ris­ques et des impacts.

works and human rights impact assess­ment frame­works, tech­ni­cal stan­dards, as well as edu­ca­ti­on and awa­re­ness programs.

64. Une opti­on, dans cer­ta­ins cas, pour­rait con­si­ster à pré­voir une cer­taine for­me de pro­tec­tion cont­re les repré­sailles pour les lan­ce­urs d’a­ler­te inter­nes qui dénon­cent des mal­ver­sa­ti­ons et la fia­bi­li­té des décla­ra­ti­ons publi­ques fai­tes par des acteurs de l’in­tel­li­gence arti­fi­ci­el­le. cet égard, les auteurs de la pro­po­si­ti­on sou­hai­taient fai­re une réfé­rence par­ti­cu­liè­re à la Recom­man­da­ti­on CM/Rec(2014)7 du Comi­té des mini­stres aux États mem­bres sur la pro­tec­tion des lan­ce­urs d’alerte.

65. Comp­te tenu de la com­ple­xi­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et de la dif­fi­cul­té de les con­trô­ler, les Par­ties sont encou­ra­gées à mett­re en œuvre des mesu­res visa­nt à garan­tir que ces systè­mes sont con­çus, déve­lo­p­pés et uti­li­sés de maniè­re à ce qu’il exi­ste des méca­nis­mes de con­trô­le effi­caces et fia­bles, y com­pris un con­trô­le humain[5], dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Le prin­ci­pe de con­trô­le est plus géné­ral et donc dif­fé­rent de l’ob­li­ga­ti­on sub­stan­ti­el­le spé­ci­fi­que énon­cée à l’ar­tic­le 26 de la con­ven­ti­on-cad­re, qui exi­ge des par­ties qu’el­les éta­blis­sent ou désign­ent des méca­nis­mes effi­caces pour assurer le respect des obli­ga­ti­ons pré­vues par la con­ven­ti­on-cad­re, com­me le pré­voit leur système juri­di­que natio­nal (voir le com­men­tai­re de l’ar­tic­le 26 aux para­gra­phes 141 à 144 ci-dessous).


Artic­le 9 – Responsa­bi­li­té et obli­ga­ti­on de rend­re compte

Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à assurer la responsa­bi­li­té des effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit qui résul­tent des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

66. Le prin­ci­pe de responsa­bi­li­té énon­cé dans cet­te dis­po­si­ti­on fait réfé­rence à la néces­si­té de pré­voir des méca­nis­mes per­met­tant aux per­son­nes, orga­ni­sa­ti­ons ou enti­tés respons­ables des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le de répond­re aux effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie ou le droit résul­tant des acti­vi­tés menées dans le cad­re du cycle de vie de ces systè­mes. Name­ly, the pro­vi­si­on requi­res Par­ties to estab­lish new frame­works and mecha­nisms, or to main­tain exi­sting frame­works and mecha­nisms as may then be applied to acti­vi­ties within the life­cy­cle of arti­fi­ci­al intel­li­gence systems to give effect to this requi­re­ment. Cela peut éga­le­ment inclu­re des mesu­res judi­ciai­res et admi­ni­stra­ti­ves, des régimes de responsa­bi­li­té civi­le, péna­le et aut­res et, dans le sec­teur public, des pro­cé­du­res admi­ni­stra­ti­ves et aut­res afin que les décis­i­ons pui­s­sent être con­te­stées, ou le pla­ce­ment de responsa­bi­li­tés et d’ob­li­ga­ti­ons spé­ci­fi­ques sur les opérateurs.

67. Con­for­mé­ment à l’appro­che décri­te dans le com­men­tai­re de l’ar­tic­le 4, para­gra­phes 37 à 41, et dans le com­men­tai­re de l’ar­tic­le 6, para­gra­phes 50 à 51, ci-des­sus, les ter­mes “effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit” uti­li­sés dans cet­te dis­po­si­ti­on se réfè­rent prin­ci­pa­le­ment aux obli­ga­ti­ons et enga­ge­ments en matiè­re de droits de l’hom­me appli­ca­bles aux cad­res exi­stants de chaque par­tie en matiè­re de droits de l’hom­me, de démo­cra­tie et d’É­tat de droit. Ces nor­mes, dans la mesu­re où elles sont appli­ca­bles, inclu­ent la noti­on de “vio­la­ti­on des droits de l’hom­me” con­te­nue dans l’ar­tic­le 2 du PIDCP, les artic­les 13, 34, 41 et 46 de la CEDH et les artic­les 25 et 63 du Pac­te de San José. En ce qui con­cer­ne la démo­cra­tie et l’É­tat de droit, voir en par­ti­cu­lier les con­tex­tes men­ti­onnés dans le com­men­tai­re de l’ar­tic­le 5 (para­gra­phes 45 et 46 ci-des­sus) et les cad­res nati­on­aux exi­stants per­tin­ents en ce qui con­cer­ne la pro­tec­tion de l’in­té­gri­té des pro­ce­s­sus et insti­tu­ti­ons démocratiques.

68. Ce prin­ci­pe souli­gne la néces­si­té de lignes de responsa­bi­li­té clai­res et la pos­si­bi­li­té de retra­cer les actions et les décis­i­ons à des indi­vi­dus ou des enti­tés spé­ci­fi­ques d’u­ne maniè­re qui recon­naisse la diver­si­té des acteurs con­cer­nés ain­si que leurs rôles et leurs responsa­bi­li­tés. Ceci est important pour garan­tir que, par exemp­le, si l’uti­li­sa­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le ent­raî­ne un impact néga­tif sur les droits de l’hom­me, la démo­cra­tie ou le droit, il exi­ste un méca­nis­me per­met­tant d’i­den­ti­fier de tels résul­tats et d’at­tri­buer les responsa­bi­li­tés de maniè­re appro­priée. En d’aut­res ter­mes, tous les acteurs respons­ables des acti­vi­tés dans le cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, qu’il s’a­gis­se d’or­ga­ni­sa­ti­ons publi­ques ou pri­vées, doi­vent être sou­mis au cad­re exi­stant de règles, de nor­mes juri­di­ques et d’aut­res méca­nis­mes appro­priés de chaque par­tie afin de per­mett­re une attri­bu­ti­on effec­ti­ve des responsa­bi­li­tés appli­quées au con­tex­te des systè­mes d’in­tel­li­gence artificielle.

69. Le prin­ci­pe de responsa­bi­li­té et d’im­pu­ta­bi­li­té est indis­so­cia­ble du prin­ci­pe de trans­pa­rence et de con­trô­le, car les méca­nis­mes de trans­pa­rence et de con­trô­le per­met­tent de rend­re des comptes.

en cla­ri­fi­ant la maniè­re dont les systè­mes d’in­tel­li­gence arti­fi­ci­el­le fonc­tion­nent et pro­dui­sent des résul­tats. Lorsque les par­ties pren­an­tes con­cer­nées com­pren­nent les pro­ce­s­sus et algo­rith­mes sous-jacents, il devi­ent plus faci­le de tra­cer et d’at­tri­buer des responsa­bi­li­tés en cas d’im­pact néga­tif sur les droits de l’hom­me, la démo­cra­tie ou le respect du droit, y com­pris les vio­la­ti­ons des droits de l’homme.

70. Enfin, en rai­son des carac­té­ri­sti­ques du cycle de vie de l’in­tel­li­gence arti­fi­ci­el­le décri­tes pré­cé­dem­ment, le prin­ci­pe de responsa­bi­li­té et d’ob­li­ga­ti­on de rend­re des comp­tes com­prend éga­le­ment l’ob­li­ga­ti­on pour les États d’ad­op­ter ou de main­te­nir des mesu­res visa­nt à garan­tir que les per­son­nes respons­ables de systè­mes d’in­tel­li­gence arti­fi­ci­el­le con­sidè­rent les ris­ques poten­tiels pour les droits de l’hom­me, la démo­cra­tie et le droit résul­tant des acti­vi­tés au sein du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Cela inclut une action proac­ti­ve pour pré­ve­nir et atté­nuer à la fois les ris­ques et les effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie ou l’É­tat de droit (voir le com­men­tai­re de l’ar­tic­le 16, para­gra­phes 105 à 112).


Artic­le 10 – Éga­li­té et non-discrimination

1. Chaque Par­tie adop­te ou main­ti­ent des mesu­res visa­nt à garan­tir que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le respec­tent l’é­ga­li­té, y com­pris l’é­ga­li­té ent­re les sexes, et l’in­ter­dic­tion de la dis­cri­mi­na­ti­on, tel­les que pré­vues par le droit inter­na­tio­nal et natio­nal applicable.

2. Chaque Par­tie s’en­ga­ge à adop­ter ou à main­te­nir des mesu­res visa­nt à sur­mon­ter les iné­ga­li­tés afin d’ob­te­nir des résul­tats justes, équi­ta­bles et con­for­mes à ses obli­ga­ti­ons natio­na­les et inter­na­tio­na­les en matiè­re de droits de l’hom­me, en ce qui con­cer­ne les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

71. En rédi­geant le para­gra­phe 1 de l’ar­tic­le 10, qui men­ti­on­ne “l’é­ga­li­té, y com­pris l’é­ga­li­té ent­re les hom­mes et les femmes et l’in­ter­dic­tion de la dis­cri­mi­na­ti­on, tel­le qu’el­le est pré­vue par le droit inter­na­tio­nal et natio­nal appli­ca­ble”, les auteurs de la pro­po­si­ti­on de loi avai­ent l’in­ten­ti­on de se réfé­rer spé­ci­fi­quement à l’en­sem­ble du droit des droits de l’hom­me exi­stant, com­po­sé d’in­stru­ments juri­di­ques inter­na­ti­on­aux (aux deux niveaux mon­di­al et régio­nal) et nati­on­aux appli­ca­bles à chaque par­tie, qui four­nis­sent ensem­ble une base juri­di­que soli­de et des ori­en­ta­ti­ons per­met­tant à chaque par­tie d’en­vi­sa­ger les mesu­res à adop­ter ou à maintenir,

en vue d’assurer l’é­ga­li­té et l’in­ter­dic­tion de la dis­cri­mi­na­ti­on dans les domain­es con­cer­nés dans le cad­re des acti­vi­tés liées au cycle de vie des systè­mes d’in­tel­li­gence artificielle.

72. Au niveau glo­bal, les cad­res per­tin­ents pour chaque Par­tie peu­vent inclu­re les dis­po­si­ti­ons suivantes :

a) Artic­les 2, 24 et 26 de l’ICCPR ;

b) les artic­les 2, 3 et l’ar­tic­le 7 du PIDESC ; et

c) Instru­ments juri­di­ques spé­cia­li­sés tels que la CIERD, la CEDAW, la CNUDCI et la CNUDP.

73. Au niveau régio­nal, les cad­res per­tin­ents pour chaque par­tie peu­vent inclure :

a) Artic­le 14 de la CEDH et son Pro­to­co­le n° 12 ;

b) Para­gra­phes 20 et 27 de la par­tie I, artic­le 20 de la par­tie II et artic­le E de la par­tie V de la CSE ;

c) Instru­ments juri­di­ques spé­cia­li­sés du Con­seil de l’Eu­ro­pe, tels que l’ar­tic­le 4 de la Con­ven­ti­on-cad­re pour la pro­tec­tion des mino­ri­tés natio­na­les et l’ar­tic­le 4 de la Con­ven­ti­on d’Istanbul ;

d) Tit­re III de la Char­te des droits fon­da­men­taux de l’UE, trai­tés de l’UE (par exemp­le, artic­le 2 du Trai­té sur l’U­ni­on euro­pé­en­ne, artic­le 10 du Trai­té sur le fonc­tion­ne­ment de l’U­ni­on euro­pé­en­ne), légis­la­ti­on second­ai­re de l’UE[6] et juris­pru­dence per­ti­nen­te de la Cour de justi­ce de l’U­ni­on européenne ;

e) l’ar­tic­le 24 du Pac­te de San José ; et

f) Instru­ments juri­di­ques spé­cia­li­sés, tels que la Con­ven­ti­on inter­amé­ri­cai­ne de 1999 sur l’é­li­mi­na­ti­on de tou­tes les for­mes de dis­cri­mi­na­ti­on à l’é­gard des per­son­nes han­di­ca­pées ; la Con­ven­ti­on inter­amé­ri­cai­ne de 2013 cont­re le racis­me, la dis­cri­mi­na­ti­on racia­le et les for­mes con­ne­xes d’in­to­lé­rance et la Con­ven­ti­on inter­amé­ri­cai­ne de 2015 sur la pro­tec­tion des droits de l’hom­me des per­son­nes âgées.

74. Les par­ties dev­rai­ent prend­re en con­sidé­ra­ti­on les élé­ments per­tin­ents de leur droit natio­nal, qui pour­rai­ent inclu­re le droit con­sti­tu­ti­on­nel, les sta­tuts et la jurisprudence.

75. Les auteurs de la pro­po­si­ti­on de loi ont éga­le­ment évo­qué le ris­que réel et bien docu­men­té de biais pou­vant con­sti­tuer une dis­cri­mi­na­ti­on illé­ga­le décou­lant des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. La Con­ven­ti­on-cad­re exi­ge des Par­ties qu’el­les envis­agent des solu­ti­ons régle­men­tai­res, de gou­ver­nan­ce, tech­ni­ques ou aut­res appro­priées pour trai­ter les dif­fé­ren­tes maniè­res dont les biais peu­vent être inten­ti­on­nel­le­ment ou invo­lon­tai­re­ment incor­po­rés dans les systè­mes d’in­tel­li­gence arti­fi­ci­el­le à dif­fér­ents sta­des de leur cycle de vie. Les que­sti­ons sui­van­tes ont été bien docu­men­tées en ce qui con­cer­ne cer­ta­ins systè­mes d’in­tel­li­gence artificielle :

a)les biais poten­tiels des déve­lo­p­peurs de l’al­go­rith­me (par exemp­le, en rai­son des sté­ré­o­ty­pes ou des biais con­sci­ents ou incon­sci­ents des développeurs) ;

b)les biais poten­tiels inté­g­rés dans le modè­le sur lequel les systè­mes sont construits ;

c)les biais poten­tiels inhér­ents aux ensem­bles de don­nées de for­ma­ti­on uti­li­sés (par exemp­le, lorsque l’en­sem­ble de don­nées est inexact ou insuf­fi­sam­ment repré­sen­ta­tif), ou à l’a­g­ré­ga­ti­on ou à l’éva­lua­ti­on des don­nées (par exemp­le, lorsque des grou­pes sont com­bi­nés de maniè­re inap­pro­priée, ou lorsque les don­nées de réfé­rence uti­li­sées pour compa­rer le modè­le à d’aut­res modè­les ne repré­sen­tent pas suf­fi­sam­ment la popu­la­ti­on que le modè­le dev­rait servir) ;

d)les biais intro­duits lorsque de tels systè­mes sont mis en œuvre dans des envi­ron­ne­ments réels (par exemp­le, l’ex­po­si­ti­on à un envi­ron­ne­ment biai­sé une fois qu’il est uti­li­sé, ou en rai­son d’u­ne uti­li­sa­ti­on biai­sée du système d’in­tel­li­gence arti­fi­ci­el­le, d’u­ne uti­li­sa­ti­on mal­veil­lan­te ou d’at­ta­ques qui intro­dui­sent inten­ti­on­nel­le­ment des biais en mani­pu­lant le système d’in­tel­li­gence arti­fi­ci­el­le) ou lorsque l’in­tel­li­gence arti­fi­ci­el­le évo­lue par auto-app­ren­tis­sa­ge en rai­son d’err­eurs et de défi­ci­en­ces dans la déter­mi­na­ti­on des paramè­tres de fonc­tion­ne­ment et d’app­ren­tis­sa­ge de l’al­go­rith­me, ou

e)l’au­to­ma­tisa­ti­on ou les biais de con­fir­ma­ti­on, par les­quels les humains peu­vent pla­cer une con­fi­ance inju­sti­fi­ée dans les machi­nes et les arte­facts tech­no­lo­gi­ques ou dans des situa­tions où ils sélec­tion­nent des infor­ma­ti­ons qui sou­ti­en­nent leurs pro­pres points de vue, dans les deux cas en igno­rant leur pro­pre juge­ment poten­ti­el­le­ment con­tra­dic­toire et en vali­dant les résul­tats algo­rith­mi­ques sans les remett­re en question.

76. Les que­sti­ons d’é­ga­li­té dans le con­tex­te spé­ci­fi­que de l’in­tel­li­gence arti­fi­ci­el­le inclu­ent des caté­go­ries rela­ti­ve­ment nou­vel­les de pro­blè­mes tels que les ‘biais tech­ni­ques’, qui résul­tent de pro­blè­mes dans l’ap­pli­ca­ti­on de l’app­ren­tis­sa­ge auto­ma­tique qui ent­raî­ne des biais sup­p­lé­men­tai­res qui ne sont pas prés­ents dans les don­nées uti­li­sées pour for­mer le système ou prend­re des décis­i­ons ; et les ‘biais soci­aux’, c’est-à-dire des défauts de pri­se en comp­te cor­rec­te des iné­ga­li­tés histo­ri­ques ou actu­el­les dans la socié­té dans les acti­vi­tés au sein du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, tel­les que la con­cep­ti­on et les modè­les de for­ma­ti­on. Ces iné­ga­li­tés inclu­ent, par exemp­le, les obs­ta­cles histo­ri­ques et struc­tu­rels à l’é­ga­li­té et au trai­te­ment juste et équi­ta­ble des per­son­nes appar­tenant à des grou­pes qui ont été ou sont enco­re en par­tie non pro­té­gés, dis­cri­mi­nés cont­re, ou sou­mis d’u­ne aut­re maniè­re à des iné­ga­li­tés per­si­stan­tes. Ces que­sti­ons inclu­ent éga­le­ment la recon­nais­sance que les dif­fér­ents indi­vi­dus subis­sent des impacts dif­fér­ents en fonc­tion de fac­teurs liés à leurs carac­té­ri­sti­ques personnelles,

cir­con­stances ou l’ap­par­ten­an­ce à un grou­pe, y com­pris cel­les cou­ver­tes par les instru­ments per­tin­ents et appli­ca­bles men­ti­onnés aux para­gra­phes 72 et 73 du Rap­port expli­ca­tif, tels qu’­in­ter­pré­tés par la juris­pru­dence et les pra­ti­ques per­ti­nen­tes de la Cour inter­na­tio­na­le de justi­ce.
n droits de l’homme.

77. La dis­po­si­ti­on pré­cise que l’appro­che requi­se par cet artic­le ne doit pas s’ar­rêter au simp­le fait d’e­xi­ger qu’u­ne per­son­ne ne soit pas trai­tée moins favora­blem­ent “sans justi­fi­ca­ti­on objec­ti­ve et rai­sonnable” sur la base d’u­ne ou plu­sieurs carac­té­ri­sti­ques pro­té­gées qu’el­le pos­sè­de dans des domain­es per­tin­ents d’un sec­teur pro­té­gé. Les Par­ties s’en­g­agent à adop­ter de nou­vel­les mesu­res ou à main­te­nir les mesu­res exi­stan­tes visa­nt à sur­mon­ter les iné­ga­li­tés struc­tu­rel­les et histo­ri­ques.
ies, dans la mesu­re per­mi­se par ses lois natio­na­les et inter­na­tio­na­les.
Les pro­ce­s­sus d’éva­lua­ti­on et d’ap­pro­ba­ti­on des obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’hom­me et, en out­re, ces pro­ce­s­sus dev­rai­ent, le cas échéant, être infor­més des points de vue de ceux qui sont affectés.

78. Con­sci­ents des dif­fé­ren­ces con­cep­tu­el­les, doc­tri­na­les, juri­di­ques et tech­ni­ques ent­re les façons dont ces que­sti­ons sont abor­dées dans les systè­mes juri­di­ques nati­on­aux des dif­fé­ren­tes Par­ties et afin de four­nir aux Par­ties la fle­xi­bi­li­té néces­saire à cet égard, les auteurs du pro­jet ont insé­ré une for­mu­la­ti­on qui per­met à chaque Par­tie de se con­for­mer à l’ob­li­ga­ti­on énon­cée au para­gra­phe 2 de l’ar­tic­le 10 con­for­mé­ment à ses pro­pres obli­ga­ti­ons et enga­ge­ments nati­on­aux et inter­na­ti­on­aux en matiè­re de droits de l’hom­me en appli­quant les cad­res exi­stants appli­ca­bles au con­tex­te des acti­vi­tés rele­vant du cycle de vie des systè­mes d’in­tel­li­gence artificielle.


Artic­le 11 – Vie pri­vée et pro­tec­tion des don­nées à carac­tère personnel

Chaque Par­tie adop­te ou main­ti­ent des mesu­res pour garan­tir que, en ce qui con­cer­ne les acti­vi­tés rele­vant du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le :

a. les droits à la vie pri­vée des indi­vi­dus et leurs don­nées per­son­nel­les sont pro­té­gés, y com­pris par les lois, nor­mes et cad­res nati­on­aux et inter­na­ti­on­aux appli­ca­bles ; et

b.des garan­ties et des sau­vegar­des effec­ti­ves ont été mises en place pour les indi­vi­dus, con­for­mé­ment aux obli­ga­ti­ons léga­les natio­na­les et inter­na­tio­na­les applicables.

Rap­port explicatif

79. La pro­tec­tion des droits à la vie pri­vée et des don­nées per­son­nel­les est un prin­ci­pe com­mun néces­saire à la mise en œuvre effec­ti­ve de nombreux aut­res prin­cipes de la pré­sen­te Con­ven­ti­on-cad­re. La coll­ec­te de don­nées per­son­nel­les est déjà omni­pré­sen­te, non seu­le­ment com­me base de modè­les d’entre­pri­se dans de nombreux sec­teurs, mais aus­si com­me l’u­ne des acti­vi­tés clés des agen­ces gou­ver­ne­men­ta­les, y com­pris les auto­ri­tés char­gées de l’ap­pli­ca­ti­on des lois, qui uti­li­sent une varié­té de tech­no­lo­gies et de systè­mes auto­ma­ti­sés qui coll­ec­tent, trai­tent et génè­rent des don­nées per­son­nel­les dans le cad­re de pro­ce­s­sus décis­i­on­nels qui ont un impact direct sur la vie des per­son­nes. Les systè­mes d’in­tel­li­gence arti­fi­ci­el­le étant prin­ci­pa­le­ment axés sur les don­nées, en l’ab­sence de garan­ties appro­priées, les acti­vi­tés qui tom­bent dans le cycle de vie de ces systè­mes pour­rai­ent poser de sérieux ris­ques pour la vie pri­vée des individus.

80. Mal­gré quel­ques dif­fé­ren­ces dans les tra­di­ti­ons juri­di­ques, les règles spé­ci­fi­ques et les méca­nis­mes de pro­tec­tion, les États qui ont négo­cié la Con­ven­ti­on-cad­re part­agent un enga­ge­ment fort en faveur de la pro­tec­tion de la vie pri­vée, par exemp­le, tel qu’é­non­cé au niveau mon­di­al dans l’ar­tic­le 17 de l’ICC­PR et au niveau régio­nal dans l’ar­tic­le 8 de la CEDH, l’ar­tic­le 8 de la Char­te de l’UE et l’ar­tic­le 11 du Pac­te de San José.

81. Au cœur de ces droits, les droits à la vie pri­vée des indi­vi­dus com­portent des élé­ments qui se chevauch­ent par­ti­el­le­ment, avec des degrés varia­bles de recon­nais­sance juri­di­que et de pro­tec­tion dans tou­tes les juri­dic­tions, tels que : (1) inté­rêt pro­té­gé à limi­ter l’ac­cès aux expé­ri­en­ces et enga­ge­ments de vie d’un indi­vi­du (2) inté­rêt pro­té­gé au secret de cer­tai­nes que­sti­ons per­son­nel­les (3) degré de con­trô­le sur les infor­ma­ti­ons et don­nées per­son­nel­les (4) pro­tec­tion de la per­son­na­li­té (indi­vi­dua­li­té ou iden­ti­té, dignité, auto­no­mie indi­vi­du­el­le) et (5) pro­tec­tion de l’in­ti­mi­té et de l’in­té­gri­té phy­si­que, psy­cho­lo­gi­que ou mora­le. La dis­po­si­ti­on souli­gne ces dif­fé­ren­tes appro­ches en met­tant l’ac­cent sur cer­tai­nes des prin­ci­pa­les simi­li­tu­des dans ce domaine, même si elle n’a pas pour but de pré­co­ni­s­er ou d’e­xi­ger des mesu­res régle­men­tai­res par­ti­cu­liè­res dans une juri­dic­tion donnée.

82. Comp­te tenu du rôle essen­tiel que joue la pro­tec­tion des don­nées à carac­tère per­son­nel dans la garan­tie des droits à la vie pri­vée et des aut­res droits de l’hom­me dans le mon­de numé­ri­que, les auteurs de la pro­po­si­ti­on ont fait une men­ti­on spé­ci­fi­que dans le tex­te de la dis­po­si­ti­on rela­ti­ve aux lois, nor­mes et cad­res nati­on­aux et inter­na­ti­on­aux dans le domaine de la pro­tec­tion des don­nées à carac­tère per­son­nel. Afin de souli­gner leur importance dans la garan­tie d’u­ne pro­tec­tion effi­cace dans le con­tex­te de l’in­tel­li­gence arti­fi­ci­el­le, l’ar­tic­le 11, para­gra­phe (b), fait éga­le­ment expli­ci­te­ment réfé­rence à d’aut­res “garan­ties et pro­tec­tions” dont les indi­vi­dus (éga­le­ment appelés “sujets de don­nées” dans cer­tai­nes juri­dic­tions) béné­fi­ci­ent géné­ra­le­ment en ver­tu de ces lois, nor­mes et cad­res. Les auteurs de la pro­po­si­ti­on con­sidè­rent que cet­te obli­ga­ti­on impo­se aux par­ties de prend­re des mesu­res pour pro­té­ger la vie privée.

83. L’un de ces instru­ments est la Con­ven­ti­on 108+ du Con­seil de l’Eu­ro­pe, qui cou­vre à la fois les sec­teurs public et pri­vé et qui est ouver­te à l’ad­hé­si­on des États au niveau mon­di­al. Au niveau de l’UE, le Règle­ment géné­ral sur la pro­tec­tion des don­nées (Règle­ment (UE) 2016/679, “RGPD”) est une loi com­plè­te sur la pro­tec­tion des don­nées qui s’ap­pli­que aux per­son­nes phy­si­ques ou mora­les qui trai­tent des don­nées per­son­nel­les appar­tenant à des per­son­nes phy­si­ques dans l’U­ni­on euro­pé­en­ne, que le trai­te­ment ait lieu dans l’U­ni­on euro­pé­en­ne ou non. Au niveau natio­nal, la plu­part des États qui ont négo­cié la Con­ven­ti­on-cad­re ont des lois dédiées à la pro­tec­tion des don­nées per­son­nel­les ou de la vie pri­vée et sou­vent des auto­ri­tés spé­cia­li­sées char­gées de super­vi­ser cor­rec­te­ment les règles et régle­men­ta­ti­ons pertinentes.


Artic­le 12 – Fiabilité

Chaque Par­tie prend, le cas échéant, des mesu­res pour pro­mou­voir la fia­bi­li­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et la con­fi­ance dans leurs résul­tats, ce qui pour­rait inclu­re des exi­gen­ces rela­ti­ves à une qua­li­té et à une sécu­ri­té adé­qua­tes tout au long du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

84. Cet­te dis­po­si­ti­on met l’ac­cent sur le rôle poten­tiel que peu­vent jouer les nor­mes, les spé­ci­fi­ca­ti­ons tech­ni­ques, les tech­ni­ques d’assu­rance et les régimes de con­for­mi­té dans l’éva­lua­ti­on et la véri­fi­ca­ti­on de la fia­bi­li­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et dans la docu­men­ta­ti­on et la com­mu­ni­ca­ti­on trans­pa­ren­tes des preu­ves de ce pro­ce­s­sus. Les nor­mes, en par­ti­cu­lier, pour­rai­ent four­nir une base fia­ble pour par­ta­ger des atten­tes com­mu­nes sur cer­ta­ins aspects d’un pro­duit, d’un pro­ce­s­sus, d’un système ou d’un ser­vice dans le but d’é­ta­b­lir une con­fi­ance justi­fi­ée dans la fia­bi­li­té d’un système d’in­tel­li­gence arti­fi­ci­el­le si son déve­lo­p­pe­ment et son uti­li­sa­ti­on sont con­for­mes à ces normes.

85. Cet­te dis­po­si­ti­on souli­gne l’im­portance de l’é­ta­blis­se­ment de mesu­res visa­nt à assurer la fia­bi­li­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le par le biais de mesu­res portant sur des aspects clés du fonc­tion­ne­ment tels que la robust­es­se, la sécu­ri­té, la sûre­té, l’e­xac­ti­tu­de et la per­for­mance, ain­si que sur des exi­gen­ces fonc­tion­nel­les tel­les que la qua­li­té et l’e­xac­ti­tu­de des don­nées, l’in­té­gri­té des don­nées, la sécu­ri­té des don­nées et la cyber­sé­cu­ri­té. Les nor­mes, les exi­gen­ces, les systè­mes d’assu­rance et de con­for­mi­té per­tin­ents peu­vent cou­vr­ir ces élé­ments en tant que con­di­ti­on pré­alable à la cons­truc­tion réus­sie d’u­ne con­fi­ance publi­que justi­fi­ée dans les tech­no­lo­gies de l’in­tel­li­gence artificielle.

86. Les nor­mes tech­ni­ques peu­vent aider à four­nir une assu­rance et une con­for­mi­té en matiè­re d’in­tel­li­gence arti­fi­ci­el­le mutu­el­le­ment accep­tées et évo­lu­ti­ves, tout en veil­lant à ce qu’el­les soi­ent éla­bo­rées dans le cad­re d’un pro­ce­s­sus trans­pa­rent et inclu­sif qui encou­ra­ge la cohé­rence avec les instru­ments inter­na­ti­on­aux et nati­on­aux appli­ca­bles en matiè­re de droits de l’homme.

87. En out­re, les mesu­res à adop­ter ou à main­te­nir en ver­tu de cet­te dis­po­si­ti­on dev­rai­ent viser à garan­tir que, com­me tout aut­re système logi­ciel, les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont “sûrs et sécu­ri­sés dès la con­cep­ti­on”, ce qui signi­fie que les acteurs de l’in­tel­li­gence arti­fi­ci­el­le con­cer­nés dev­rai­ent con­sidé­rer la sécu­ri­té et la sûre­té com­me des exi­gen­ces fon­da­men­ta­les, et pas seu­le­ment com­me des carac­té­ri­sti­ques tech­ni­ques. Ils dev­rai­ent don­ner la prio­ri­té à la sécu­ri­té et à la sûre­té tout au long du cycle de vie du système d’in­tel­li­gence artificielle.

88. Dans cer­ta­ins cas, il peut ne pas être suf­fi­sant d’é­ta­b­lir des nor­mes et des règles sur les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les mesu­res visa­nt à pro­mou­voir la fia­bi­li­té peu­vent donc inclu­re, en fonc­tion du con­tex­te, la four­ni­tu­re aux par­ties pren­an­tes con­cer­nées d’in­for­ma­ti­ons clai­res et fia­bles sur la que­sti­on de savoir si les acteurs de l’in­tel­li­gence arti­fi­ci­el­le ont respec­té ces exi­gen­ces dans la pra­tique. Cela impli­que d’assurer, le cas échéant, une responsa­bi­li­té de bout en bout par le biais de la trans­pa­rence des pro­ce­s­sus et des pro­to­co­les de docu­men­ta­ti­on. Il exi­ste un lien clair ent­re ce prin­ci­pe et le prin­ci­pe de trans­pa­rence et de con­trô­le de l’ar­tic­le 8 et le prin­ci­pe de responsa­bi­li­té de l’ar­tic­le 9.

89. Les systè­mes d’assu­rance et de con­for­mi­té sont importants à la fois pour garan­tir la con­for­mi­té aux règles et aux régle­men­ta­ti­ons et pour faci­li­ter l’éva­lua­ti­on de ris­ques plus ouverts, lorsque les règles et les régle­men­ta­ti­ons ne suf­fi­sent pas à elles seu­les à garan­tir la fia­bi­li­té d’un système. Dans ce con­tex­te, les nor­mes tech­ni­ques fon­dées sur le con­sen­sus ont un rôle important à jouer pour com­bler les lacu­nes et four­nir des con­seils sur la réduc­tion des ris­ques d’un point de vue tech­ni­que (voir éga­le­ment le com­men­tai­re de l’ar­tic­le 16 aux para­gra­phes 105 et 112 ci-dessous).


Artic­le 13 – Inno­va­ti­on sûre

Dans le but de sti­mu­ler l’in­no­va­ti­on tout en évi­tant des effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et le respect de la loi, chaque Par­tie est invi­tée à faci­li­ter, le cas échéant, la mise en place d’en­vi­ron­ne­ments con­trôlés pour la mise au point, l’expé­ri­men­ta­ti­on et les essais de dis­po­si­tifs arti­fi­ci­els.
systè­mes de rens­eig­ne­ment sous la super­vi­si­on de ses auto­ri­tés compétentes.

Rap­port explicatif

90. Cet­te dis­po­si­ti­on met l’ac­cent sur un thè­me important qui se trouve au cœur de l’appro­che de la Con­ven­ti­on-cad­re : les par­ties dev­rai­ent s’ef­forcer de pro­mou­voir et de sti­mu­ler l’in­no­va­ti­on dans le respect des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit. Un moy­en appro­prié de sti­mu­ler l’in­no­va­ti­on responsable en matiè­re d’in­tel­li­gence arti­fi­ci­el­le est de per­mett­re aux auto­ri­tés du sec­teur d’ac­ti­vi­té con­cer­né de mett­re en place des “envi­ron­ne­ments con­trôlés” ou des “cad­res” per­met­tant le déve­lo­p­pe­ment, la for­ma­ti­on, l’expé­ri­men­ta­ti­on en direct et le test des inno­va­tions sous la super­vi­si­on direc­te des auto­ri­tés com­pé­ten­tes, en par­ti­cu­lier pour encou­ra­ger l’in­té­gra­ti­on des que­sti­ons de qua­li­té, de respect de la vie pri­vée et d’aut­res droits de l’hom­me, ain­si que des que­sti­ons de sécu­ri­té et de sûre­té, dès les pre­miè­res étapes. Cela est d’autant plus important que cer­ta­ins ris­ques liés aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le ne peu­vent être effi­ca­ce­ment abor­dés qu’au sta­de de la conception.

91. Il est éga­le­ment important de recon­naît­re que cer­ta­ins déve­lo­p­peurs d’in­tel­li­gence arti­fi­ci­el­le, y com­pris ceux qui ont une mis­si­on d’in­té­rêt public, ne peu­vent pas pour­suiv­re leur inno­va­ti­on sans être rai­sonnablem­ent cer­ta­ins qu’el­le n’au­ra pas de con­sé­quen­ces néfa­stes et sans inté­grer des garan­ties appro­priées pour atté­nuer les ris­ques dans un envi­ron­ne­ment con­trôlé. Étant don­né que l’in­no­va­ti­on est essen­ti­el­le­ment col­la­bo­ra­ti­ve et dépen­dan­te du che­min emprun­té, avec de nou­veaux systè­mes con­struits sur ce qui a été fait aupa­ra­vant, il y a un ris­que que cet­te inno­va­ti­on soit empê­chée par­ce qu’el­le ne peut pas uti­li­ser de la même maniè­re ou se baser sur des inno­va­tions exi­stan­tes qui ne sont pas suf­fi­sam­ment sûres. Cet­te dis­po­si­ti­on n’a pas pour but de frei­ner l’in­no­va­ti­on mais recon­naît que l’in­no­va­ti­on peut être façon­née autant par les gou­ver­ne­ments que par les entreprises.

lati­on que par l’ab­sence de cel­le-ci. L’é­chec de la créa­ti­on d’un envi­ron­ne­ment dans lequel l’in­no­va­ti­on responsable peut s’é­panouir ris­que d’é­touf­fer ce type d’in­no­va­ti­on et de lais­ser le champ lib­re à des appro­ches plus irrévérencieuses.

92. Comp­te tenu de la diver­si­té et de la com­ple­xi­té sous-jacen­te des systè­mes juri­di­ques et des tra­di­ti­ons régle­men­tai­res dans les États qui ont négo­cié la con­ven­ti­on-cad­re, la dis­po­si­ti­on laisse les détails spé­ci­fi­ques des arran­ge­ments per­tin­ents aux par­ties, à con­di­ti­on que les régimes mis en place en ver­tu de cet­te dis­po­si­ti­on soi­ent con­for­mes à l’e­xi­gence d’ ”évi­ter tou­te inci­dence néga­ti­ve sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit”. Une appro­che pour att­eind­re ces objec­tifs est, par exemp­le, les “sand­bo­xes régle­men­tai­res” qui visent à pro­mou­voir l’in­no­va­ti­on, à four­nir une cer­ti­tu­de juri­di­que et à per­mett­re l’app­ren­tis­sa­ge régle­men­tai­re. D’aut­res appro­ches com­pren­nent des con­seils régle­men­tai­res spé­ci­aux ou des lett­res d’inac­tion pour cla­ri­fier la maniè­re dont les régu­la­teurs vont abor­der la con­cep­ti­on, le déve­lo­p­pe­ment ou l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans de nou­veaux contextes.

93. Les appro­ches mises en évi­dence par cet­te dis­po­si­ti­on offrent de nombreux avan­ta­ges, par­ti­cu­liè­re­ment adap­tés dans le cas des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, le ryth­me rapi­de de leur déve­lo­p­pe­ment et le carac­tère omni­pré­sent de leur utilisation :

1) En per­met­tant le déve­lo­p­pe­ment con­trôlé et le test, la vali­da­ti­on et la véri­fi­ca­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, de tel­les appro­ches peu­vent aider à iden­ti­fier les ris­ques et les pro­blè­mes poten­tiels asso­ciés aux systè­mes d’in­tel­li­gence arti­fi­ci­el­le dès le début du pro­ce­s­sus de déve­lo­p­pe­ment. Cet­te appro­che proac­ti­ve peut per­mett­re aux déve­lo­p­peurs de répond­re aux pré­oc­cu­pa­ti­ons avant le déploie­ment à gran­de échel­le. Les sand­bo­xes ou l’é­mis­si­on de con­seils régle­men­tai­res infor­mels, par exemp­le, four­nis­sent un envi­ron­ne­ment qui simu­le des con­di­ti­ons réel­les, per­met­tant le déve­lo­p­pe­ment et des tests plutôt réa­li­stes des appli­ca­ti­ons d’in­tel­li­gence arti­fi­ci­el­le. Cela peut aider à décou­vr­ir des défis qui ne serai­ent pas évi­dents dans des envi­ron­ne­ments de test iso­lés et per­met une coopé­ra­ti­on avec les auto­ri­tés com­pé­ten­tes à des étapes anté­ri­eu­res du cycle de vie de l’in­no­va­ti­on.
2) Ces appro­ches faci­li­tent le par­ta­ge des con­nais­sances ent­re les enti­tés pri­vées, les régu­la­teurs et les aut­res par­ties pren­an­tes. Ces envi­ron­ne­ments col­la­bo­ra­tifs peu­vent favo­ri­ser une meil­leu­re com­pré­hen­si­on des tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le, de leurs impli­ca­ti­ons et des appro­ches poten­ti­el­les de la gou­ver­nan­ce, et four­nir une cer­ti­tu­de juri­di­que aux inno­va­teurs et les sou­te­nir dans leur par­cours de mise en con­for­mi­té.
3) Les tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le évo­lu­ent rapi­de­ment, et les cad­res régle­men­tai­res tra­di­ti­on­nels peu­vent avoir du mal à sui­v­re le ryth­me. De tel­les appro­ches per­met­tent d’app­rend­re les oppor­tu­ni­tés et les ris­ques d’u­ne inno­va­ti­on à un sta­de pré­co­ce et four­nis­sent des preu­ves à des fins d’app­ren­tis­sa­ge régle­men­tai­re et peu­vent offrir une fle­xi­bi­li­té pour les régle­men­ta­ti­ons et les tech­no­lo­gies à tester afin de véri­fier leur adap­ta­bi­li­té au pay­sa­ge chan­geant de l’in­tel­li­gence arti­fi­ci­el­le. Sur la base des résul­tats obte­nus, le cad­re peut être inter­pré­té pour tenir comp­te de ces nou­veaux défis et des con­tex­tes spé­ci­fi­ques, mis en œuvre plus effi­ca­ce­ment ou, le cas échéant, aju­s­té.
4) De tels envi­ron­ne­ments peu­vent per­mett­re aux régu­la­teurs d’expé­ri­men­ter dif­fé­ren­tes appro­ches régle­men­tai­res et d’éva­luer leur effi­ca­ci­té à garan­tir le respect des droits de l’hom­me, de la démo­cra­tie et de l’ord­re juri­di­que, ain­si qu’à pré­ve­nir et à atté­nuer les effets néga­tifs sur ceux-ci. Ce pro­ce­s­sus ité­ra­tif peut aider les régu­la­teurs à éla­bo­rer des poli­ti­ques infor­mées qui éta­blis­sent un équi­lib­re ent­re la pro­mo­ti­on de l’in­no­va­ti­on et la pro­tec­tion de l’in­té­rêt public.
5) L’e­xi­stence de tel­les appro­ches peut ren­forcer la con­fi­ance du public et de l’in­du­strie en démon­trant que les régu­la­teurs sont acti­ve­ment enga­gés dans la com­pré­hen­si­on et le con­trô­le des tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le afin d’assurer le respect des droits de l’hom­me, de la démo­cra­tie et de l’é­tat de droit. Cet­te trans­pa­rence con­tri­bue à bâtir la con­fi­ance dans le déve­lo­p­pe­ment et le déploie­ment respons­ables de l’in­tel­li­gence arti­fi­ci­el­le.
6) Ces appro­ches per­met­tent aux orga­ni­sa­ti­ons qui déve­lo­p­pent et déploi­ent des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, qui pour­rai­ent éga­le­ment inclu­re d’aut­res par­ties pren­an­tes, le cas échéant, de tra­vail­ler étroi­te­ment avec les régu­la­teurs pour com­prend­re et respec­ter les exi­gen­ces de con­for­mi­té. Cet­te appro­che col­la­bo­ra­ti­ve aide à ratio­na­li­ser le pro­ce­s­sus régle­men­tai­re et la con­for­mi­té, ce qui est par­ti­cu­liè­re­ment uti­le pour les peti­tes ent­re­pri­ses qui ne dis­po­sent pas des res­sour­ces nécessaires.

Cha­pit­re IV – Remèdes

Rap­port explicatif

94. Étant don­né que les obli­ga­ti­ons énon­cées dans le pré­sent cha­pit­re sont desti­nées à com­plé­ter le régime juri­di­que inter­na­tio­nal et natio­nal appli­ca­ble de chaque Par­tie en matiè­re de pro­tec­tion des droits de l’hom­me, qui com­prend non seu­le­ment des règles et des pro­cé­du­res spé­ci­fi­ques, mais aus­si diver­ses insti­tu­ti­ons et des méca­nis­mes de sur­veil­lan­ce et d’ap­pli­ca­ti­on, la mise en œuvre des obli­ga­ti­ons énon­cées dans le pré­sent cha­pit­re dev­rait être effec­tuée par chaque Par­tie en appli­quant ses cad­res exi­stants dans le con­tex­te des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Ce faisant, les Par­ties dev­rai­ent gar­der à l’e­sprit l’ob­jet et le but de la Con­ven­ti­on-cad­re, qui est de
veil­ler à ce que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent plei­ne­ment con­for­mes aux droits de l’hom­me, à la démo­cra­tie et à la prim­au­té du droit.

Artic­le 14 – Remèdes

1. Chaque Par­tie, dans la mesu­re où des recours sont requis par ses obli­ga­ti­ons inter­na­tio­na­les et con­for­mé­ment à son système juri­di­que inter­ne, adop­te ou main­ti­ent des mesu­res visa­nt à garan­tir l’ac­ce­s­si­bi­li­té et l’ef­fi­ca­ci­té des recours en cas de vio­la­ti­ons des droits de l’hom­me.
an droits résul­tant des acti­vi­tés dans le cad­re du cycle de vie de l’ar­ti­fi­ci­el en
tel­li­gence systems.

2. Dans le but de sou­te­nir le para­gra­phe 1 ci-des­sus, chaque par­tie adop­te ou main­ti­ent des mesu­res, y compris

a. des mesu­res visa­nt à garan­tir que les infor­ma­ti­ons per­ti­nen­tes con­cer­nant les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sus­cep­ti­bles d’a­voir une inci­dence signi­fi­ca­ti­ve sur les droits de l’hom­me et leur uti­li­sa­ti­on per­ti­nen­te sont docu­men­tées, mises à la dis­po­si­ti­on des orga­nis­mes auto­ri­sés à accé­der à ces infor­ma­ti­ons et, le cas échéant et selon le cas, mises à dis­po­si­ti­on ou com­mu­ni­quées aux per­son­nes concernées ;

b.des mesu­res visa­nt à garan­tir que les infor­ma­ti­ons visées au point a) sont suf­fi­san­tes pour per­mett­re aux per­son­nes con­cer­nées de com­prend­re la ou les décis­i­ons pri­ses ou d’êt­re sub­stan­ti­el­le­ment infor­mées de l’uti­li­sa­ti­on du système et, le cas échéant et de maniè­re appro­priée, de l’uti­li­sa­ti­on du système lui-même ; et

c.une pos­si­bi­li­té effec­ti­ve pour les per­son­nes con­cer­nées de dépo­ser une plain­te auprès des auto­ri­tés compétentes.

Rap­port explicatif

95. Com­me men­ti­onné pré­cé­dem­ment, chaque Par­tie dis­po­se déjà de cad­res exi­stants en matiè­re de droits de l’hom­me, de démo­cra­tie et de règ­le de droit. La Con­ven­ti­on-cad­re exi­ge des Par­ties qu’el­les appli­quent ces cad­res exi­stants dans le con­tex­te des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

96. En rai­son de cer­tai­nes carac­té­ri­sti­ques uni­ques des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, tel­les que leur com­ple­xi­té tech­ni­que, leur carac­tère axé sur les don­nées et l’o­pa­ci­té rela­ti­ve des opé­ra­ti­ons de cer­ta­ins de ces systè­mes, les inter­ac­tions humain­es avec les systè­mes d’in­tel­li­gence arti­fi­ci­el­le ont été affec­tées par le pro­blè­me de l’o­pa­ci­té des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et de l’a­sy­m­é­trie d’in­for­ma­ti­on, c’est-à-dire un désé­qui­lib­re signi­fi­ca­tif dans l’ac­cès, la com­pré­hen­si­on ou le con­trô­le de l’in­for­ma­ti­on ent­re les dif­fé­ren­tes par­ties impli­quées dans les acti­vi­tés au sein du cycle de vie des systè­mes d’in­tel­li­gence artificielle.

97. Ce pro­blè­me est par­ti­cu­liè­re­ment aigu dans les situa­tions où les droits de l’hom­me sont défa­vora­blem­ent affec­tés par les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, car les per­son­nes con­cer­nées ou poten­ti­el­le­ment con­cer­nées peu­vent ne pas être au cou­rant de tels impacts ou dis­po­ser des infor­ma­ti­ons néces­saires pour exer­cer leurs droits dans ce con­tex­te, ou enco­re se pri­ver de pro­cé­du­res et de garan­ties pertinentes.

98. C’est pour­quoi cet­te dis­po­si­ti­on rap­pel­le le prin­ci­pe selon lequel un remè­de doit être à la fois effi­cace et acce­s­si­ble. Pour être effi­cace, le remè­de doit être capa­ble de remé­dier direc­te­ment aux situa­tions de pri­va­ti­on de liber­té et, pour être acce­s­si­ble, il doit être dis­po­ni­ble avec des garan­ties pro­cé­du­ra­les suf­fi­san­tes en place pour rend­re le remè­de signi­fi­ca­tif pour la per­son­ne con­cer­née. Afin de souli­gner le lien et d’assurer la com­plé­men­ta­ri­té avec les méca­nis­mes inter­na­ti­on­aux et nati­on­aux de pro­tec­tion des droits de l’hom­me en vigueur, la dis­po­si­ti­on uti­li­se la ter­mi­no­lo­gie juri­di­que men­ti­onnée à l’ar­tic­le 2 du PIDCP, à l’ar­tic­le 13 de la CEDH et à l’ar­tic­le 25 du Pac­te de San José. Le ter­me de “vio­la­ti­ons des droits de l’hom­me” uti­li­sé dans le pre­mier para­gra­phe de cet­te dis­po­si­ti­on se réfè­re aux noti­ons bien éta­b­lies con­te­nues dans l’ar­tic­le 2 du PIDCP, les artic­les 13, 34, 41 et 46 de la CEDH et les artic­les 25 et 63 du Pac­te de San José, si et com­me appli­ca­bles aux futures par­ties respec­ti­ves à cet­te con­ven­ti­on-cad­re (voir le com­men­tai­re au para­gra­phe 67 ci-dessus).

99. Con­for­mé­ment aux prin­cipes énon­cés aux artic­les 8 (prin­ci­pe de trans­pa­rence et de con­trô­le) et 9 (prin­ci­pe de responsa­bi­li­té), l’ar­tic­le 14 de la Con­ven­ti­on-cad­re exi­ge des Par­ties qu’el­les adoptent ou main­ti­en­nent des mesu­res spé­ci­fi­ques pour docu­men­ter et mett­re à la dis­po­si­ti­on des per­son­nes con­cer­nées cer­tai­nes infor­ma­ti­ons afin de sou­te­nir l’ob­jec­tif d’offrir des recours dis­po­ni­bles, acce­s­si­bles et effi­caces en cas de vio­la­ti­ons des droits de l’hom­me dans le cad­re des acti­vi­tés du cycle de vie d’un système d’in­tel­li­gence arti­fi­ci­el­le. Le con­te­nu per­ti­nent des mesu­res rela­ti­ves à l’in­for­ma­ti­on dev­rait être adap­té au con­tex­te, suf­fi­sam­ment clair et per­ti­nent, et, de maniè­re cri­tique, four­nir à une per­son­ne con­cer­née une capa­ci­té effec­ti­ve d’uti­li­ser l’in­for­ma­ti­on en que­sti­on pour exer­cer ses droits dans le cad­re de la pro­cé­du­re rela­ti­ve aux décis­i­ons per­ti­nen­tes affec­tant ses droits humains. Il est éga­le­ment important de rap­pe­l­er que des excep­ti­ons, des limi­ta­ti­ons ou des déro­ga­ti­ons à ces obli­ga­ti­ons de trans­pa­rence sont pos­si­bles dans l’in­té­rêt de l’ord­re public, de la sécu­ri­té et d’aut­res inté­rêts publics importants tels que pré­vus par les instru­ments inter­na­ti­on­aux appli­ca­bles en matiè­re de droits de l’hom­me et, le cas échéant, pour satis­fai­re à ces objectifs.

100. En ce qui con­cer­ne les vio­la­ti­ons des droits de l’hom­me résul­tant des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, il est éga­le­ment important de four­nir aux per­son­nes con­cer­nées une pos­si­bi­li­té effec­ti­ve de dépo­ser une plain­te auprès des auto­ri­tés com­pé­ten­tes, com­me le pré­voit l’ar­tic­le 14, para­gra­phe 2, ali­néa (c) de la Con­ven­ti­on-cad­re. Dans cer­tai­nes situa­tions, un recours effec­tif peut inclu­re des plain­tes dépo­sées par des orga­ni­sa­ti­ons d’in­té­rêt public, con­for­mé­ment au système juri­di­que natio­nal d’u­ne Partie.

101. Les auteurs du pro­jet de loi ont sou­hai­té souli­gner que les expres­si­ons “affec­tent de maniè­re signi­fi­ca­ti­ve les droits de l’hom­me” au para­gra­phe (a) du deu­xiè­me ali­néa de l’ar­tic­le 14 et “affec­tent de maniè­re signi­fi­ca­ti­ve la jouis­sance des droits de l’hom­me” au para­gra­phe 1 de l’ar­tic­le 15 intro­dui­sent tou­tes deux une exi­gence de seuil, ce qui signi­fie que (1) les exi­gen­ces per­ti­nen­tes des artic­les 14 et 15 ne s’ap­pli­quent pas auto­ma­ti­quement à tous les systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on de l’ar­tic­le 3 de la con­ven­ti­on-cad­re ; (2) que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le qui n’ont pas d’ef­fet ou d’im­pact signi­fi­ca­tif sur les droits de l’hom­me ne relè­vent pas du champ d’ap­pli­ca­ti­on des nou­vel­les obli­ga­ti­ons spé­ci­fi­ques énon­cées dans cet artic­le ; et (3) qu’il appar­tient aux par­ties à la con­ven­ti­on-cad­re d’ex­ami­ner si, comp­te tenu de leur droit inter­na­tio­nal et natio­nal exi­stant en matiè­re de droits de l’hom­me et du con­tex­te et des aut­res cir­con­stances per­ti­nen­tes en ce qui con­cer­ne un système d’in­tel­li­gence arti­fi­ci­el­le don­né, ce système peut être con­sidé­ré com­me ayant un “effet signi­fi­ca­tif” ou un “impact signi­fi­ca­tif” sur les droits de l’homme.

102. De même, l’ex­pres­si­on “sub­stan­ti­el­le­ment infor­mé par l’uti­li­sa­ti­on du système [d’in­tel­li­gence arti­fi­ci­el­le]” au para­gra­phe (b) de l’ar­tic­le 14 est cen­sée intro­dui­re une exi­gence de seuil qui souli­gne que tou­te uti­li­sa­ti­on d’un système arti­fi­ci­el dans la pri­se de décis­i­on ne déclen­che pas l’ap­pli­ca­ti­on du para­gra­phe (b), et ces mesu­res ne dev­rai­ent s’ap­pli­quer que dans les cas où la décis­i­on a été au moins “sub­stan­ti­el­le­ment infor­mée” par l’uti­li­sa­ti­on du système. Il appar­tient aux Par­ties à la Con­ven­ti­on-cad­re de défi­nir le sens de cet­te expres­si­on, con­for­mé­ment à leur droit inter­na­tio­nal et natio­nal appli­ca­ble en matiè­re de droits de l’homme.


Artic­le 15 – Garan­ties procédurales

1. Chaque Par­tie veil­le à ce que, lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le a un impact signi­fi­ca­tif sur la jouis­sance des droits de l’hom­me, des garan­ties pro­cé­du­ra­les effec­ti­ves, des sau­vegar­des et des droits, con­for­mé­ment au droit inter­na­tio­nal et natio­nal appli­ca­ble, soi­ent mis à la dis­po­si­ti­on des per­son­nes ain­si affectées.

2. Chaque Par­tie s’ef­force de fai­re en sor­te que, dans la mesu­re appro­priée au con­tex­te, les per­son­nes qui inter­agis­sent avec des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent infor­mées qu’el­les inter­agis­sent avec de tels systè­mes plutôt qu’a­vec un être humain.

Rap­port explicatif

103. Le para­gra­phe 1 de l’ar­tic­le 15 éta­blit une obli­ga­ti­on distinc­te pour les Par­ties de veil­ler à ce que les garan­ties pro­cé­du­ra­les, les sau­vegar­des et les droits exi­stants pre­scrits par le droit inter­na­tio­nal et natio­nal appli­ca­ble en matiè­re de droits de l’hom­me restent dis­po­ni­bles et effec­tifs dans le con­tex­te de l’in­tel­li­gence arti­fi­ci­el­le. Lorsqu’un système d’in­tel­li­gence arti­fi­ci­el­le infor­me de maniè­re sub­stan­ti­el­le ou prend des décis­i­ons ayant une inci­dence sur les droits de l’hom­me, des garan­ties effec­ti­ves en matiè­re de pro­cé­du­re dev­rai­ent, par exemp­le, inclu­re une super­vi­si­on humaine, y com­pris un examen ex ante ou ex post de la décis­i­on par des êtres humains. Le cas échéant, ces mesu­res de con­trô­le humain dev­rai­ent garan­tir que le système d’in­tel­li­gence arti­fi­ci­el­le est sou­mis à des con­train­tes opé­ra­ti­on­nel­les inté­g­rées qui ne peu­vent pas être dépas­sées par le système lui-même et qu’il est sen­si­ble à l’opé­ra­teur humain, et que les per­son­nes phy­si­ques aux­quel­les le con­trô­le humain a été attri­bué ont les com­pé­ten­ces, la for­ma­ti­on et l’au­to­ri­té néces­saires pour s’ac­quit­ter de cet­te tâche.

104. Le para­gra­phe 2 de l’ar­tic­le 15 trai­te spé­ci­fi­quement des situa­tions d’in­ter­ac­tion humaine direc­te avec un système d’in­tel­li­gence arti­fi­ci­el­le. Dans de tels cas et lorsque

re appro­prié en tenant comp­te des cir­con­stances et du con­tex­te d’uti­li­sa­ti­on, et en vue notam­ment d’é­vi­ter le ris­que de mani­pu­la­ti­on et de trom­pe­rie, les per­son­nes inter­agis­sant avec un système d’in­tel­li­gence arti­fi­ci­el­le dev­rai­ent être dûment infor­mées qu’el­les inter­agis­sent avec un système d’in­tel­li­gence arti­fi­ci­el­le plutôt qu’a­vec un être humain. Par exemp­le, les inter­ac­tions avec des chat­bots dotés d’u­ne intel­li­gence arti­fi­ci­el­le sur des sites web gou­ver­ne­men­taux déclen­cher­ai­ent pro­ba­blem­ent l’ob­li­ga­ti­on de noti­fi­ca­ti­on pré­vue par cet­te dis­po­si­ti­on. At the same time, this obli­ga­ti­on is not inten­ded, for exam­p­le, to cover situa­tions whe­re the very pur­po­se of the use of the system would be coun­ter­tac­ted by the noti­fi­ca­ti­on (law enforce­ment sce­na­ri­os) or whe­re the use of the system is obvious from the con­text, which ren­ders noti­fi­ca­ti­on unnecessary.

Cha­pit­re V – Éva­lua­ti­on et atté­nua­ti­on des ris­ques et des inci­den­ces négatives

Artic­le 16 – Cad­re de gesti­on des ris­ques et des impacts

1. Chaque Par­tie, comp­te tenu des prin­cipes énon­cés au cha­pit­re III, adop­te ou peut adop­ter des mesu­res d’exécution.

ntain mea­su­res for the iden­ti­fi­ca­ti­on, assess­ment, pre­ven­ti­on and miti­ga­ti­on of risks posed by arti­fi­ci­al intel­li­gence systems by con­side­ring actu­al and poten­ti­al impacts on human rights, demo­cra­cy and the rule of law.

2. Ces mesu­res doi­vent être gra­duées et dif­fé­ren­ciées, le cas échéant, et :

a. tien­nent dûment comp­te du con­tex­te et de l’uti­li­sa­ti­on pré­vue des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, en par­ti­cu­lier en ce qui con­cer­ne les ris­ques pour les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit ;

b.tenir dûment comp­te de la gra­vi­té et de la pro­ba­bi­li­té des impacts potentiels ;

c.pren­nent en con­sidé­ra­ti­on, le cas échéant, le point de vue des par­ties pren­an­tes con­cer­nées, en par­ti­cu­lier des per­son­nes dont les droits peu­vent être affectés ;

d.appli­quer de maniè­re ité­ra­ti­ve tout au long des acti­vi­tés du cycle de vie du système d’in­tel­li­gence artificielle ;

e.inclu­ent le sui­vi des ris­ques et des effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et le respect de la loi ;

f.inclu­ent la docu­men­ta­ti­on sur les ris­ques, les impacts réels et poten­tiels, et l’appro­che de gesti­on des ris­ques ; et

g.exi­gent, le cas échéant, que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent testés avant d’êt­re mis à dis­po­si­ti­on pour une pre­miè­re uti­li­sa­ti­on et lorsqu’ils sont modi­fi­és de maniè­re significative ;

3. Chaque par­tie doit ajouter

optent pour des mesu­res ou main­ti­en­nent des mesu­res visa­nt à garan­tir que les inci­den­ces néga­ti­ves des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit sont trai­tées de maniè­re appro­priée. Ces effets néga­tifs et les mesu­res pri­ses pour y remé­dier doi­vent être docu­men­tés et infor­mer les mesu­res per­ti­nen­tes de gesti­on des ris­ques décri­tes au para­gra­phe 2.

4. Chaque Par­tie éva­lue la néces­si­té d’un mora­toire ou d’u­ne inter­dic­tion ou d’aut­res mesu­res appro­priées à l’é­gard de cer­tai­nes uti­li­sa­ti­ons de systè­mes d’in­tel­li­gence arti­fi­ci­el­le lorsqu’el­le con­sidè­re que de tel­les uti­li­sa­ti­ons sont incom­pa­ti­bles avec le respect des droits de l’hom­me, le fonc­tion­ne­ment de la démo­cra­tie ou le respect de la loi.

Rap­port explicatif

105. Afin de tenir comp­te du carac­tère ité­ra­tif des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et d’assurer l’ef­fi­ca­ci­té des mesu­res pri­ses par les Par­ties, la Con­ven­ti­on-cad­re pré­voit une dis­po­si­ti­on pre­scri­vant d’i­den­ti­fier, d’éva­luer, de pré­ve­nir et d’at­té­nuer ex ante et, le cas échéant, de maniè­re ité­ra­ti­ve, les ris­ques per­tin­ents et les inci­den­ces poten­ti­el­les sur les droits de l’hom­me, la démo­cra­tie et le respect du droit, en sui­vant et en per­met­tant l’é­la­bo­ra­ti­on d’u­ne métho­do­lo­gie com­portant des critères con­crets et objec­tifs pour de tel­les éva­lua­tions. Ces obli­ga­ti­ons sont l’un des outils essen­tiels pour per­mett­re la mise en œuvre des exi­gen­ces de la Con­ven­ti­on-cad­re et des cha­pi­t­res II et III en par­ti­cu­lier et dev­rai­ent être mises en œuvre par les Par­ties à la lumiè­re de tous les prin­cipes per­tin­ents, y com­pris les prin­cipes de trans­pa­rence et de con­trô­le ain­si que le prin­ci­pe de responsa­bi­li­té et d’ob­li­ga­ti­on de rend­re compte.

106. L’ob­jec­tif de cet­te dis­po­si­ti­on est d’assurer une appro­che uni­for­me de l’i­den­ti­fi­ca­ti­on, de l’ana­ly­se et de l’éva­lua­ti­on de ces ris­ques et de l’éva­lua­ti­on de l’im­pact de ces systè­mes. En même temps, elle se fon­de sur l’hy­po­thè­se que les par­ties sont les mieux pla­cées pour fai­re des choix régle­men­tai­res per­tin­ents, en tenant comp­te de leurs con­tex­tes juri­di­ques, poli­ti­ques, éco­no­mi­ques, soci­aux, cul­tu­rels et tech­no­lo­gi­ques spé­ci­fi­ques, et qu’el­les dev­rai­ent donc béné­fi­ci­er d’u­ne cer­taine fle­xi­bi­li­té en ce qui con­cer­ne la gou­ver­nan­ce et la régle­men­ta­ti­on effec­ti­ves qui accom­pagn­ent les processus.

107. C’est la prin­ci­pa­le rai­son pour laquel­le la dis­po­si­ti­on men­ti­on­ne des mesu­res gra­duées et dif­fé­ren­ciées qui doi­vent tenir dûment comp­te du “con­tex­te et de l’uti­li­sa­ti­on pré­vue des systè­mes d’in­tel­li­gence arti­fi­ci­el­le”, ce qui per­met aux Par­ties une cer­taine fle­xi­bi­li­té dans les appro­ches et les métho­do­lo­gies qu’el­les choi­sis­sent pour effec­tuer cet­te éva­lua­ti­on. En par­ti­cu­lier, les Par­ties peu­vent choi­sir de mett­re en œuvre cet­te éva­lua­ti­on aux dif­fér­ents niveaux, par exemp­le au niveau régle­men­tai­re en pre­scri­vant dif­fé­ren­tes caté­go­ries de clas­si­fi­ca­ti­on des ris­ques et/ou au niveau opé­ra­ti­on­nel par des acteurs per­tin­ents assi­gnés à des responsa­bi­li­tés dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les Par­ties peu­vent éga­le­ment choi­sir de se con­cen­trer, au niveau opé­ra­ti­on­nel, uni­quement sur cer­tai­nes caté­go­ries pré­dé­fi­nies de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, con­for­mé­ment à l’appro­che gra­duée et dif­fé­ren­ciée visa­nt à main­te­nir la char­ge et les obli­ga­ti­ons pro­por­ti­on­nel­les aux ris­ques (artic­le 16, para­gra­phe 2, ali­néa (a)). Les Par­ties pour­rai­ent éga­le­ment exami­ner la capa­ci­té de dif­fé­ren­tes caté­go­ries d’ac­teurs du sec­teur pri­vé à répond­re à ces exi­gen­ces, en par­ti­cu­lier cel­les con­cer­nant la docu­men­ta­ti­on et la com­mu­ni­ca­ti­on avec les auto­ri­tés et les par­ties pren­an­tes con­cer­nées, et si pos­si­ble et de maniè­re appro­priée, les adap­ter en conséquence.

108. Les auteurs du pro­jet de loi ont éga­le­ment sou­hai­té pré­cis­er que, par­al­lè­le­ment aux ris­ques pour les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit, les éva­lua­tions peu­vent, le cas échéant, tenir dûment comp­te de la néces­si­té de pré­ser­ver un envi­ron­ne­ment sain et dura­ble, ain­si que des avan­ta­ges escomp­tés pour la socié­té dans son ensem­ble et des effets posi­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit. Des fac­teurs tels que la “gra­vi­té”, la “pro­ba­bi­li­té”, la durée et la réver­si­bi­li­té des ris­ques et des impacts sont éga­le­ment très importants dans le con­tex­te de l’in­tel­li­gence arti­fi­ci­el­le et dev­rai­ent être pris en comp­te dans le cad­re de gesti­on des ris­ques (artic­le 16, para­gra­phe 2, ali­néa (b)), en par­ti­cu­lier lors de l’i­den­ti­fi­ca­ti­on et de l’éva­lua­ti­on des ris­ques et des impacts poten­tiels. En out­re, il est important de pré­cis­er que l’e­xi­gence de prend­re en comp­te le point de vue des per­son­nes dont les droits peu­vent être affec­tés, selon le con­tex­te, dans la mesu­re du pos­si­ble et, le cas échéant, impli­que de con­sidé­rer le point de vue d’u­ne varié­té de par­ties pren­an­tes per­ti­nen­tes, tel­les que des experts tech­ni­ques exté­ri­eurs et la socié­té civi­le (artic­le 16, para­gra­phe 2, ali­néa (c)).

109. La dis­po­si­ti­on se fon­de éga­le­ment sur l’i­dée que l’éva­lua­ti­on des ris­ques au début du cycle de vie du système d’in­tel­li­gence arti­fi­ci­el­le n’est qu’u­ne pre­miè­re étape, bien que cri­tique, dans un pro­ce­s­sus beau­coup plus long, de bout en bout, d’éva­lua­ti­on et de rééva­lua­ti­on respons­ables (artic­le 16, para­gra­phe 2, ali­néa (d)). Dans le pro­ce­s­sus d’éva­lua­ti­on des ris­ques et des impacts, il con­vi­ent de prêter atten­ti­on à la fois au carac­tère dyna­mi­que et chan­geant des acti­vi­tés au sein du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et aux con­di­ti­ons chan­ge­an­tes des envi­ron­ne­ments du mon­de réel dans les­quels les systè­mes sont desti­nés à être déployés. La dis­po­si­ti­on intro­duit en out­re des exi­gen­ces con­cer­nant non seu­le­ment t
e docu­men­ter les infor­ma­ti­ons per­ti­nen­tes pen­dant les pro­ce­s­sus de gesti­on des ris­ques, mais aus­si
l’ap­pli­ca­ti­on de mesu­res pré­ven­ti­ves et d’at­té­nua­ti­on suf­fi­san­tes à l’é­gard des ris­ques et impacts iden­ti­fi­és. Il est important pour l’e­xi­gence d’u­ne docu­men­ta­ti­on cor­rec­te des pro­ce­s­sus de gesti­on des ris­ques et des impacts, pré­vue à l’ar­tic­le 16, para­gra­phe 2, ali­néa (f), de jouer son rôle dans l’i­den­ti­fi­ca­ti­on, l’éva­lua­ti­on, la pré­ven­ti­on et l’at­té­nua­ti­on des ris­ques ou des impacts néga­tifs sur les droits de l’hom­me, la démo­cra­tie ou l’É­tat de droit qui sur­vi­en­nent au cours du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. La docu­men­ta­ti­on tech­ni­que et la docu­men­ta­ti­on sur les ris­ques et les effets néga­tifs dev­rai­ent être cor­rec­te­ment éta­b­lies et régu­liè­re­ment mises à jour. Le cas échéant, la docu­men­ta­ti­on peut inclu­re des rap­ports publics sur les effets néga­tifs. Les tests (artic­le 16, para­gra­phe 2, ali­néa (g)) peu­vent inclu­re la mise à dis­po­si­ti­on d’au­di­teurs indé­pen­dants ayant accès à cer­ta­ins aspects des systè­mes d’in­tel­li­gence artificielle.

110. Le para­gra­phe 3 de l’ar­tic­le 16 pre­scrit éga­le­ment l’ap­pli­ca­ti­on de mesu­res en fonc­tion des ris­ques et des impacts iden­ti­fi­és, afin de trai­ter de maniè­re adé­qua­te les effets néga­tifs des systè­mes d’in­tel­li­gence arti­fi­ci­el­le sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit.

111. Le para­gra­phe 4 de l’ar­tic­le 16 stipu­le que les par­ties à la con­ven­ti­on-cad­re éva­lu­ent la néces­si­té de mora­toires, d’in­ter­dic­tions ou d’aut­res mesu­res appro­priées con­cer­nant les uti­li­sa­ti­ons de systè­mes d’in­tel­li­gence arti­fi­ci­el­le qu’el­les con­sidè­rent com­me “incom­pa­ti­bles” avec le respect des droits de l’hom­me, de la démo­cra­tie et de la règ­le de droit. La déter­mi­na­ti­on de ce qui est “incom­pa­ti­ble” dans ce con­tex­te est fai­te par chaque Par­tie, tout com­me l’éva­lua­ti­on de la que­sti­on de savoir si un tel scé­na­rio néces­si­terait un mora­toire ou une inter­dic­tion, d’u­ne part, ou une aut­re mesu­re appro­priée, d’aut­re part. Sans mesu­res inter­di­sant, limi­tant ou régle­mentant d’u­ne aut­re maniè­re l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans ces cir­con­stances, de tel­les uti­li­sa­ti­ons pour­rai­ent poser des ris­ques exce­s­sifs pour les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit.

112. Bien que cet­te dis­po­si­ti­on laisse à chaque Par­tie le soin de pré­cis­er les moda­li­tés d’ap­pli­ca­ti­on des mora­toires, inter­dic­tions ou aut­res mesu­res appro­priées, comp­te tenu de leur gra­vi­té, des mesu­res tel­les que des mora­toires ou des inter­dic­tions ne dev­rai­ent être envi­sa­gées que dans des cir­con­stances où une Par­tie esti­me qu’u­ne uti­li­sa­ti­on par­ti­cu­liè­re d’un système d’in­tel­li­gence arti­fi­ci­el­le pré­sen­te un ris­que inac­cep­ta­ble pour les droits de l’hom­me, la démo­cra­tie ou l’É­tat de droit. Une aut­re con­sidé­ra­ti­on pour­rait inclu­re, par exemp­le, un examen atten­tif des mesu­res dis­po­ni­bles pour atté­nuer ce ris­que. Ces mesu­res dev­rai­ent éga­le­ment être accom­pa­gnées de pro­cé­du­res de révi­si­on orga­ni­sées de maniè­re appro­priée afin de per­mett­re leur mise à jour, y com­pris leur éven­tu­el­le inver­si­on (par exemp­le, lorsque des ris­ques per­tin­ents ont été suf­fi­sam­ment réduits ou que des mesu­res de miti­ga­ti­on appro­priées sont deve­nues dis­po­ni­bles, ou lorsque de nou­vel­les pra­ti­ques inac­cep­ta­bles ont été iden­ti­fi­ées). Les auteurs du pro­jet de loi soulignent éga­le­ment l’im­portance des con­sul­ta­ti­ons publi­ques lors de l’ex­amen des mesu­res pré­vues dans le cad­re de cet­te disposition.

Cha­pit­re VI – Mise en œuvre de la convention

Artic­le 17 – Non-discrimination

La mise en œuvre des dis­po­si­ti­ons de la pré­sen­te Con­ven­ti­on par les Par­ties doit être assu­rée sans dis­cri­mi­na­ti­on d’au­cu­ne sor­te, con­for­mé­ment à leurs obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’homme.

Rap­port explicatif

113. Cet artic­le inter­dit la dis­cri­mi­na­ti­on dans la mise en œuvre de la con­ven­ti­on-cad­re par les par­ties. Le sens de la dis­cri­mi­na­ti­on figu­rant à l’ar­tic­le 17 est iden­tique à celui qui est don­né dans le droit inter­na­tio­nal appli­ca­ble, tel que, ent­re aut­res, l’ar­tic­le 26 du PIDCP, l’ar­tic­le 2 du PIDESC, l’ar­tic­le 14 de la CEDH et son pro­to­co­le n° 12, l’ar­tic­le 24 du Pac­te de San José et l’ar­tic­le E de la CED, si et dans la mesu­re où il est appli­ca­ble aux par­ties à la convention-cadre.

114. Pri­ses ensem­ble, ces dis­po­si­ti­ons cou­vrent un lar­ge éven­tail de motifs de non-dis­cri­mi­na­ti­on liés aux carac­té­ri­sti­ques per­son­nel­les des indi­vi­dus, à leur situa­ti­on ou à leur appar­ten­an­ce à un grou­pe, y com­pris ceux cou­verts par les instru­ments per­tin­ents et appli­ca­bles men­ti­onnés aux para­gra­phes 72 et 73 du Rap­port expli­ca­tif, tels qu’­in­ter­pré­tés par la juris­pru­dence et les pra­ti­ques per­ti­nen­tes des orga­nes inter­na­ti­on­aux de pro­tec­tion des droits de l’homme.

115. Tous ces motifs ne sont pas expli­ci­te­ment énon­cés ou for­mulés de maniè­re iden­tique dans les trai­tés sur les droits de l’hom­me par les­quels les par­ties à la pré­sen­te con­ven­ti­on-cad­re peu­vent être liées. Ces trai­tés con­ti­en­nent géné­ra­le­ment des listes ouver­tes de tels motifs, tel­les qu’­in­ter­pré­tées par la juris­pru­dence des juri­dic­tions inter­na­tio­na­les com­pé­ten­tes, tel­les que les Cours euro­pé­en­nes et inter­amé­ri­cai­nes des droits de l’hom­me, et dans la pra­tique per­ti­nen­te des orga­nes inter­na­ti­on­aux com­pé­tents, tels que le Comi­té des droits de l’hom­me des Nati­ons unies. Il peut donc y avoir des varia­ti­ons ent­re les dif­fér­ents régimes inter­na­ti­on­aux de droits de l’hom­me appli­ca­bles aux dif­fé­ren­tes par­ties. Com­me pour d’aut­res con­ven­ti­ons et trai­tés rela­tifs aux droits de l’hom­me, l’appro­che de la Con­ven­ti­on-cad­re n’est pas de cré­er de nou­vel­les obli­ga­ti­ons en matiè­re de droits de l’hom­me ni de rédui­re, d’é­tendre ou de modi­fier d’u­ne aut­re maniè­re le champ d’ap­pli­ca­ti­on ou le con­te­nu des obli­ga­ti­ons inter­na­tio­na­les en matiè­re de droits de l’hom­me appli­ca­bles à une Par­tie (voir le com­men­tai­re de l’ar­tic­le 1er , au para­gra­phe 13 ci-dessus).


Artic­le 18 – Droits des per­son­nes han­di­ca­pées et des enfants

Chaque Par­tie tient dûment comp­te, con­for­mé­ment à sa légis­la­ti­on natio­na­le et aux obli­ga­ti­ons inter­na­tio­na­les appli­ca­bles, de tout beso­in spé­ci­fi­que et de tou­te vul­né­ra­bi­li­té en ce qui con­cer­ne le respect des droits des per­son­nes han­di­ca­pées et des enfants.

Rap­port explicatif

116. Cet­te dis­po­si­ti­on éta­blit l’ob­li­ga­ti­on pour les Par­ties, dans le cad­re des acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, de tenir dûment comp­te des “beso­ins spé­ci­fi­ques et des vul­né­ra­bi­li­tés en ce qui con­cer­ne le respect des droits des per­son­nes han­di­ca­pées et des enfants” et, à cet égard, elle est en cor­ré­la­ti­on direc­te avec les dis­po­si­ti­ons et le régime juri­di­que de la CNUDPH et de la CNUCC ain­si qu’a­vec le droit inter­ne appli­ca­ble de chaque Par­tie en matiè­re de droits des per­son­nes han­di­ca­pées et de droits de l’en­fant. Une réfé­rence expli­ci­te à la légis­la­ti­on natio­na­le appli­ca­ble aux droits de l’en­fant et aux droits des per­son­nes han­di­ca­pées a été insé­rée, en par­ti­cu­lier pour tenir comp­te de la situa­ti­on de tou­te Par­tie à la Con­ven­ti­on-cad­re qui n’a pas rati­fié la CNUDE ou la CNUDPH, mais qui dis­po­se néan­mo­ins d’u­ne légis­la­ti­on natio­na­le garan­tis­sant la jouis­sance de ces droits.

117. La réfé­rence au droit natio­nal dans cet­te dis­po­si­ti­on vise uni­quement à mett­re l’ac­cent sur les dis­po­si­ti­ons du droit natio­nal qui offrent le niveau de pro­tec­tion dans le con­tex­te per­ti­nent, simi­lai­re ou com­plé­men­tai­re à celui de la CNUDPH ou de la CNUCC, et cet­te réfé­rence ne peut être invo­quée par une Par­tie pour justi­fier son man­quement à l’exé­cu­ti­on de cet­te obli­ga­ti­on con­ven­ti­on­nel­le. L’ob­jec­tif est donc de garan­tir le plus haut niveau pos­si­ble de pri­se en comp­te des beso­ins spé­ci­fi­ques et des vul­né­ra­bi­li­tés en ce qui con­cer­ne le respect des droits des per­son­nes han­di­ca­pées et des enfants, y com­pris la for­ma­ti­on à l’al­pha­bé­ti­sa­ti­on numé­ri­que, com­me expli­qué en rela­ti­on avec l’ar­tic­le 20 du Rap­port explicatif.

118. Comp­te tenu du ris­que sérieux que les tech­no­lo­gies d’in­tel­li­gence arti­fi­ci­el­le pui­s­sent être uti­li­sées pour faci­li­ter l’ex­plo­ita­ti­on et les abus sexu­els con­cer­nant des enfants, et des ris­ques spé­ci­fi­ques qu’el­les font cour­ir aux enfants, dans le cad­re de la mise en œuvre de cet­te dis­po­si­ti­on, les auteurs de la pro­po­si­ti­on ont pris en con­sidé­ra­ti­on les obli­ga­ti­ons énon­cées dans la Con­ven­ti­on de Lan­za­ro­te, le Pro­to­co­le facul­ta­tif à la Con­ven­ti­on des Nati­ons unies rela­ti­ve aux droits de l’en­fant sur la ven­te d’enfants,

pro­sti­tu­ti­on enfan­ti­ne et por­no­gra­phie enfan­ti­ne, et Obser­va­ti­on géné­ra­le n° 25 à la CNUDE sur les droits de l’en­fant dans le con­tex­te de l’en­vi­ron­ne­ment numérique.


Artic­le 19 – Con­sul­ta­ti­on publique

Chaque Par­tie s’ef­force de fai­re en sor­te que les que­sti­ons importan­tes sou­le­vées par les systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent, le cas échéant, dûment exami­nées par le biais d’un débat public et d’u­ne con­sul­ta­ti­on mul­ti­par­ti­te, à la lumiè­re des impli­ca­ti­ons socia­les, éco­no­mi­ques, juri­di­ques, éthi­ques, envi­ron­ne­men­ta­les et aut­res pertinentes.

Rap­port explicatif

119. Le but du pré­sent artic­le est d’in­vi­ter les Par­ties, le cas échéant, à encou­ra­ger l’en­ga­ge­ment civi­que, à inci­ter les indi­vi­dus et les experts à par­ti­ci­per au débat public sur des que­sti­ons d’im­portance socia­le et poli­tique majeu­re, et à sen­si­bi­li­ser davan­ta­ge le public aux que­sti­ons fon­da­men­ta­les et émer­gen­tes, y com­pris cel­les qui se posent dès les pre­miè­res étapes de la con­cep­ti­on, sou­le­vées par les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les points de vue de la socié­té et les dif­fé­ren­tes per­spec­ti­ves dev­rai­ent être éva­lués et pris en comp­te dans la mesu­re du pos­si­ble en ce qui con­cer­ne les pro­blè­mes per­tin­ents, qui pour­rai­ent inclu­re, par exemp­le, les ris­ques ain­si que les impacts posi­tifs et néga­tifs. Pour ce fai­re, un “débat public et une con­sul­ta­ti­on mul­ti­par­ti­te” per­tin­ents sont recommandés.

120. L’en­ga­ge­ment dev­rait impli­quer un lar­ge éven­tail de par­ties pren­an­tes, y com­pris le grand public, les experts de l’in­du­strie, les uni­ver­si­taires, les insti­tu­ti­ons natio­na­les des droits de l’hom­me (INDH) et la socié­té civi­le. Pour les réd­ac­teurs de la Con­ven­ti­on-cad­re, ces dis­cus­sions et con­sul­ta­ti­ons jouent un rôle cru­cial pour garan­tir que les systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent con­for­mes aux droits de l’hom­me uni­ver­sels et répon­dent aux pré­oc­cu­pa­ti­ons per­ti­nen­tes en matiè­re de droits de l’hom­me, de démo­cra­tie et de respect du droit, en reflé­tant un lar­ge éven­tail de per­spec­ti­ves et en infor­mant ain­si les initia­ti­ves poli­ti­ques et régle­men­tai­res pertinentes.

121. L’ex­pres­si­on “en tant que de beso­in” laisse aux Par­ties le soin de déter­mi­ner les thè­mes, la fré­quence et les aut­res moda­li­tés de ces con­sul­ta­ti­ons, à la lumiè­re des impli­ca­ti­ons socia­les, éco­no­mi­ques, juri­di­ques, éthi­ques, envi­ron­ne­men­ta­les et aut­res. Par exemp­le, les États peu­vent orga­ni­s­er des enquêtes et des que­sti­on­n­aires, des ate­liers publics, des grou­pes de réfle­xi­on, des jurys de citoy­ens et des con­sul­ta­ti­ons déli­bé­ra­ti­ves, des panels d’ex­perts et des comi­tés con­sul­ta­tifs, des audi­tions publi­ques, des con­fé­ren­ces natio­na­les et inter­na­tio­na­les, ou des com­bi­nai­sons de ce qui pré­cè­de. L’éva­lua­ti­on fina­le et l’in­té­gra­ti­on des résul­tats de ces dis­cus­sions et con­sul­ta­ti­ons dans les initia­ti­ves poli­ti­ques per­ti­nen­tes pour­rai­ent éga­le­ment être com­mu­ni­quées de maniè­re adé­qua­te et appro­priée aux par­ties pren­an­tes concernées.


Artic­le 20 – L’al­pha­bé­ti­sa­ti­on et les com­pé­ten­ces numériques

Chaque Par­tie doit encou­ra­ger et pro­mou­voir une cul­tu­re numé­ri­que et des com­pé­ten­ces numé­ri­ques suf­fi­san­tes pour tous les seg­ments de la popu­la­ti­on, y com­pris des com­pé­ten­ces spé­cia­li­sées pour les per­son­nes char­gées de l’i­den­ti­fi­ca­ti­on, de l’éva­lua­ti­on, de la pré­ven­ti­on et de l’at­té­nua­ti­on des ris­ques posés par les systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

122. Cet­te dis­po­si­ti­on atti­re l’at­ten­ti­on des Par­ties sur le fait que la pro­mo­ti­on de la cul­tu­re numé­ri­que et des com­pé­ten­ces numé­ri­ques pour tous les seg­ments de la popu­la­ti­on est d’u­ne importance cru­cia­le dans le mon­de tech­no­lo­gi­que d’au­jour­d’hui. Les deux ter­mes font réfé­rence à la capa­ci­té d’uti­li­ser, de com­prend­re et de s’en­ga­ger effi­ca­ce­ment avec les tech­no­lo­gies numé­ri­ques, y com­pris l’in­tel­li­gence arti­fi­ci­el­le et d’aut­res tech­no­lo­gies basées sur des don­nées, et con­tri­buent ain­si à pro­mou­voir une lar­ge pri­se de con­sci­ence et une meil­leu­re com­pré­hen­si­on au sein de la popu­la­ti­on en géné­ral, ain­si qu’à pré­ve­nir et à atté­nuer les ris­ques ou les effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie ou le droit, ain­si que d’aut­res pré­ju­di­ces socié­taux tels que l’uti­li­sa­ti­on mal­veil­lan­te ou cri­mi­nel­le de ces tech­no­lo­gies. Les auteurs de la pro­po­si­ti­on de direc­ti­ve sou­hai­taient éga­le­ment men­ti­on­ner les effets par­ti­cu­liè­re­ment béné­fi­ques de tels pro­gram­mes pour les per­son­nes issues de milieux divers et pour cel­les qui peu­vent être sous-repré­sen­tées ou se trou­ver dans des situa­tions de vul­né­ra­bi­li­té, qui peu­vent inclu­re, par exemp­le, les femmes, les fil­les, les popu­la­ti­ons auto­ch­to­nes, les per­son­nes âgées et les enfants, avec un respect dû aux garan­ties con­cer­nant l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le pour les per­son­nes en situa­ti­on de vulnérabilité.

123. Con­for­mé­ment à l’ob­jet et au but de la Con­ven­ti­on-cad­re, les pro­gram­mes de for­ma­ti­on spé­ci­fi­ques con­cer­nant les tech­no­lo­gies de l’in­tel­li­gence arti­fi­ci­el­le men­ti­onnés à l’ar­tic­le 20 pour­rai­ent inclu­re une sen­si­bi­li­sa­ti­on aux ris­ques poten­tiels et aux effets néfa­stes des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans le con­tex­te des droits de l’hom­me, de la démo­cra­tie ou de l’É­tat de droit, ain­si que la capa­ci­té de gérer ces ris­ques et effets, et pour­rai­ent por­ter, selon le con­tex­te, sur des sujets tels que

a. le con­cept d’in­tel­li­gence arti­fi­ci­el­le ;
b. l’ob­jec­tif de systè­mes par­ti­cu­liers d’in­tel­li­gence arti­fi­ci­el­le ;
c. les capa­ci­tés et les limi­tes de dif­fér­ents types de modè­les d’in­tel­li­gence arti­fi­ci­el­le et les hypo­thè­ses qui les sous-ten­dent ;
d. les fac­teurs socio­cul­tu­rels liés à la con­cep­ti­on, au déve­lo­p­pe­ment et à l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, y com­pris en ce qui con­cer­ne les don­nées uti­li­sées pour leur for­ma­ti­on ;
e. les fac­teurs humains per­tin­ents pour l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence arti­fi­ci­el­le, tels que la maniè­re dont les uti­li­sa­teurs finaux peu­vent inter­pré­ter et uti­li­ser les résul­tats ;
f. exper­ti­se de domaine per­ti­nen­te pour le con­tex­te dans lequel les systè­mes d’in­tel­li­gence arti­fi­ci­el­le sont uti­li­sés ;
g. les con­sidé­ra­ti­ons juri­di­ques et poli­ti­ques ;
h. Per­spec­ti­ves d’in­di­vi­dus ou de com­mun­au­tés qui font l’expé­ri­ence de maniè­re dis­pro­por­ti­onnée d’im­pacts néga­tifs de systè­mes d’in­tel­li­gence artificielle.

124. Comp­te tenu de l’im­portance de la for­ma­ti­on des per­son­nes char­gées de l’i­den­ti­fi­ca­ti­on, de l’éva­lua­ti­on, de la pré­ven­ti­on et de l’at­té­nua­ti­on des ris­ques liés à l’in­tel­li­gence arti­fi­ci­el­le, la dis­po­si­ti­on fait éga­le­ment réfé­rence à ce grou­pe spé­ci­fi­que d’in­terlo­cu­teurs (notam­ment les auto­ri­tés judi­ciai­res, les auto­ri­tés natio­na­les de con­trô­le, les orga­nis­mes char­gés de l’é­ga­li­té et des droits de l’hom­me, les média­teurs, les auto­ri­tés char­gées de la pro­tec­tion des con­som­ma­teurs, les four­nis­seurs d’in­tel­li­gence arti­fi­ci­el­le et les uti­li­sa­teurs d’in­tel­li­gence arti­fi­ci­el­le), en par­ti­cu­lier en ce qui con­cer­ne l’ap­pli­ca­ti­on de la métho­do­lo­gie visée à l’ar­tic­le 16.


Artic­le 21 – Sau­vegar­de des droits de l’hom­me existants

Rien dans la pré­sen­te Con­ven­ti­on ne sera con­sidé­ré com­me limi­tant, déro­geant à ou affec­tant de tou­te aut­re maniè­re les droits de l’hom­me ou aut­res droits et obli­ga­ti­ons juri­di­ques con­ne­xes qui peu­vent être garan­tis par la légis­la­ti­on per­ti­nen­te d’u­ne Par­tie ou par tout aut­re accord inter­na­tio­nal per­ti­nent auquel elle est partie.

Rap­port explicatif

125. Con­for­mé­ment à la Con­ven­ti­on de Vien­ne de 1969 sur le droit des trai­tés, cet artic­le vise à assurer la coexi­stence har­mo­nieu­se de la Con­ven­ti­on-cad­re avec d’aut­res trai­tés et instru­ments inter­na­ti­on­aux rela­tifs aux droits de l’hom­me, tels que ceux énu­mé­rés au para­gra­phe 39 ci-dessus.

126. Cet­te dis­po­si­ti­on ren­force le fait que l’ob­jec­tif géné­ral de la pré­sen­te con­ven­ti­on-cad­re est d’assurer le plus haut niveau de pro­tec­tion des droits de l’hom­me, de la démo­cra­tie et de l’É­tat de droit dans le cad­re des acti­vi­tés menées dans le cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Dans ce con­tex­te, tou­tes les réfé­ren­ces au droit natio­nal dans cet­te Con­ven­ti­on-cad­re dev­rai­ent être lues com­me étant limi­tées aux cas où le droit natio­nal pré­voit un niveau de pro­tec­tion des droits de l’hom­me plus éle­vé que le droit inter­na­tio­nal applicable.


Artic­le 22 – Pro­tec­tion cont­re la fraude

Aucu­ne des dis­po­si­ti­ons de la pré­sen­te Con­ven­ti­on ne doit être inter­pré­tée com­me limi­tant ou affec­tant de tou­te aut­re maniè­re la pos­si­bi­li­té pour une Par­tie d’ac­cor­der une pro­tec­tion plus éten­due que cel­le pré­vue par la pré­sen­te Convention.

Rap­port explicatif

127. Cet­te dis­po­si­ti­on pro­tège les dis­po­si­ti­ons du droit natio­nal et des instru­ments inter­na­ti­on­aux con­traignants exi­stants et futurs qui pré­voi­ent une pro­tec­tion sup­p­lé­men­tai­re en ce qui con­cer­ne les acti­vi­tés liées au cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le dans des con­tex­tes sen­si­bles du point de vue de la pro­tec­tion des don­nées.
of view of human rights, demo­cra­cy and the rule of law, going bey­ond the level secu­red by this Frame­work Con­ven­ti­on ; this Frame­work Con­ven­ti­on shall not be inter­pre­ted as to rest­rict such pro­tec­tion. L’ex­pres­si­on “mesu­re de pro­tec­tion plus lar­ge” peut être inter­pré­tée com­me offrant la pos­si­bi­li­té de pla­cer une per­son­ne, par exemp­le, dans une posi­ti­on plus favorable que cel­le pré­vue par la convention-cadre.

Cha­pit­re VII – Méca­nis­me de sui­vi et coopération

Rap­port explicatif

128. Le cha­pit­re VII de la con­ven­ti­on-cad­re con­ti­ent des dis­po­si­ti­ons visa­nt à assurer la mise en œuvre effec­ti­ve de la con­ven­ti­on-cad­re par les par­ties au moy­en d’un méca­nis­me de sui­vi et de coopé­ra­ti­on. Il s’a­git du méca­nis­me annon­cé à l’ar­tic­le 1er , para­gra­phe 3.


Artic­le 23 – Con­fé­rence des parties

1. La Con­fé­rence des Par­ties est com­po­sée de repré­sen­tants des Par­ties à la pré­sen­te Convention.

2. Les par­ties se con­sul­tent péri­odi­quement en vue de :

a. de faci­li­ter l’ap­pli­ca­ti­on et la mise en œuvre effec­ti­ves de la pré­sen­te con­ven­ti­on, y com­pris l’i­den­ti­fi­ca­ti­on de tout pro­blè­me et les effets de tou­te réser­ve fai­te en appli­ca­ti­on du para­gra­phe 1 de l’ar­tic­le 34 ou de tou­te décla­ra­ti­on fai­te en ver­tu de la pré­sen­te convention ;

b.en con­sidé­rant l’é­ven­tuel com­plé­ment ou amen­de­ment à la pré­sen­te convention ;

c.d’ex­ami­ner des que­sti­ons et de for­mu­ler des recom­man­da­ti­ons spé­ci­fi­ques con­cer­nant l’in­ter­pré­ta­ti­on et l’ap­pli­ca­ti­on de la pré­sen­te convention ;

d.de faci­li­ter l’é­ch­an­ge d’in­for­ma­ti­ons sur les déve­lo­p­pe­ments juri­di­ques, poli­ti­ques ou tech­no­lo­gi­ques importants, y com­pris dans la pour­suite des objec­tifs défi­nis à l’ar­tic­le 25, pour la mise en œuvre de la pré­sen­te convention ;

e.faci­li­tant, si néces­saire, le règle­ment amiable des dif­fé­rends rela­tifs à l’ap­pli­ca­ti­on de la pré­sen­te con­ven­ti­on ; et

f.en faci­li­tant la coopé­ra­ti­on avec les par­ties pren­an­tes con­cer­nées sur les aspects per­tin­ents de la mise en œuvre de la pré­sen­te con­ven­ti­on, y com­pris par des con­sul­ta­ti­ons publi­ques le cas échéant.

3. La Con­fé­rence des Par­ties est con­vo­quée par le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe en tant que de beso­in et, en tout état de cau­se, lorsqu’u­ne majo­ri­té des Par­ties ou le Comi­té des Mini­stres en deman­de la convocation.

4. La Con­fé­rence des Par­ties adop­te ses pro­pres règles de pro­cé­du­re par con­sen­sus dans un délai de dou­ze mois à comp­ter de l’en­trée en vigueur de la pré­sen­te Convention.

5. Les par­ties sont assi­s­tées par le Secré­ta­ri­at du Con­seil de l’Eu­ro­pe dans l’e­xer­ci­ce des fonc­tions qui leur incom­bent en ver­tu du pré­sent article.

6. La Con­fé­rence des Par­ties peut pro­po­ser au Comi­té des Mini­stres des moy­ens appro­priés d’en­ga­ger des com­pé­ten­ces per­ti­nen­tes à l’ap­pui de la mise en œuvre effec­ti­ve de la pré­sen­te Convention.

7. Tou­te Par­tie qui n’est pas membre du Con­seil de l’Eu­ro­pe con­tri­bue au finance­ment des acti­vi­tés de la Con­fé­rence des Par­ties. La con­tri­bu­ti­on d’un non-membre du Con­seil de l’Eu­ro­pe est éta­b­lie con­join­te­ment par le Comi­té des Mini­stres et ce non-membre.

8. La Con­fé­rence des Par­ties peut déci­der de rest­reind­re la par­ti­ci­pa­ti­on à ses travaux d’u­ne Par­tie qui a ces­sé d’êt­re membre du Con­seil de l’Eu­ro­pe en ver­tu de l’ar­tic­le 8 du Sta­tut du Con­seil de l’Eu­ro­pe (STE no 1) pour vio­la­ti­on gra­ve de l’ar­tic­le 3 dudit Sta­tut. De même, des mesu­res peu­vent être pri­ses à l’é­gard de tou­te par­tie qui n’est pas un État membre du Con­seil de l’Eu­ro­pe par une décis­i­on du Comi­té des mini­stres de mett­re fin à ses rela­ti­ons avec cet État pour des motifs simi­lai­res à ceux visés à l’ar­tic­le 3 des statuts.

Rap­port explicatif

129. Cet artic­le pré­voit la mise en place d’un orga­ne rele­vant de la con­ven­ti­on-cad­re, la con­fé­rence des par­ties, com­po­sée de repré­sen­tants des parties.

130. La créa­ti­on de cet orga­ne garan­ti­ra une par­ti­ci­pa­ti­on éga­le de tou­tes les par­ties à la pro­cé­du­re de pri­se de décis­i­on et à la pro­cé­du­re de sui­vi de la con­ven­ti­on-cad­re et ren­forcera éga­le­ment la coopé­ra­ti­on ent­re les par­ties afin d’assurer une mise en œuvre cor­rec­te et effec­ti­ve de la convention-cadre.

131. La fle­xi­bi­li­té du méca­nis­me de sui­vi éta­b­li par la pré­sen­te con­ven­ti­on-cad­re est reflé­tée par le fait qu’il n’y a pas d’e­xi­gence tem­po­rel­le pour sa con­vo­ca­ti­on. Il sera con­vo­qué par le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe (para­gra­phe 3) en tant que de beso­in et péri­odi­quement (para­gra­phe 2). Tou­te­fois, elle ne peut être con­vo­quée qu’à la deman­de de la majo­ri­té des Par­ties ou à la deman­de du Comi­té des mini­stres du Con­seil de l’Eu­ro­pe (para­gra­phe 3).

132. En ce qui con­cer­ne la pré­sen­te Con­ven­ti­on-cad­re, la Con­fé­rence des Par­ties a les com­pé­ten­ces tra­di­ti­on­nel­les de sui­vi et joue un rôle en matiè­re de :

a)la mise en œuvre effec­ti­ve de la con­ven­ti­on-cad­re, en faisant des pro­po­si­ti­ons visa­nt à faci­li­ter ou à amé­lio­rer l’uti­li­sa­ti­on et la mise en œuvre effec­ti­ves de la pré­sen­te con­ven­ti­on-cad­re, y com­pris l’i­den­ti­fi­ca­ti­on de tout pro­blè­me à cet égard, et les effets de tou­te évo­lu­ti­on juri­di­que, poli­tique ou tech­no­lo­gi­que importan­te con­cer­nant les acti­vi­tés rele­vant du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, ain­si que les effets de tou­te décla­ra­ti­on ou réser­ve fai­te en ver­tu de la pré­sen­te convention-cadre ;

b)l’a­men­de­ment de la con­ven­ti­on-cad­re, en faisant des pro­po­si­ti­ons d’a­men­de­ment con­for­mé­ment à l’ar­tic­le 28, para­gra­phe 1, et en for­mu­lant son avis sur tou­te pro­po­si­ti­on d’a­men­de­ment de la pré­sen­te con­ven­ti­on-cad­re qui y est men­ti­onnée con­for­mé­ment à l’ar­tic­le 28, para­gra­phe 3 ;

c)un rôle con­sul­ta­tif géné­ral à l’é­gard de la Con­ven­ti­on-cad­re en for­mu­lant des recom­man­da­ti­ons spé­ci­fi­ques sur tou­te que­sti­on rela­ti­ve à son inter­pré­ta­ti­on ou à son appli­ca­ti­on, y com­pris, par exemp­le, en sug­gé­rant des inter­pré­ta­ti­ons de ter­mes juri­di­ques con­te­nus dans la Con­ven­ti­on-cad­re. Bien qu’el­les ne soi­ent pas juri­di­quement con­traignan­tes, ces recom­man­da­ti­ons peu­vent être con­sidé­rées com­me une expres­si­on com­mu­ne de l’o­pi­ni­on des Par­ties sur un sujet don­né, dont les Par­ties dev­rai­ent tenir comp­te de bon­ne foi dans leur appli­ca­ti­on de la Convention-cadre.

d)ser­vir de forum pour faci­li­ter l’é­ch­an­ge d’in­for­ma­ti­ons sur les évo­lu­ti­ons juri­di­ques, socié­ta­les, poli­ti­ques ou tech­no­lo­gi­ques importan­tes en rap­port avec l’ap­pli­ca­ti­on des dis­po­si­ti­ons de la con­ven­ti­on-cad­re, y com­pris en ce qui con­cer­ne les acti­vi­tés de coopé­ra­ti­on inter­na­tio­na­le décri­tes à l’ar­tic­le 25 ;

e)con­for­mé­ment à l’ar­tic­le 29 de la con­ven­ti­on-cad­re, en faci­li­tant, le cas échéant, le règle­ment amiable des dif­fé­rends rela­tifs à l’ap­pli­ca­ti­on de ses dis­po­si­ti­ons, dans un cad­re con­sul­ta­tif non contraignant ;

f)faci­li­ter la coopé­ra­ti­on avec les par­ties pren­an­tes, y com­pris les orga­ni­sa­ti­ons non gou­ver­ne­men­ta­les et les aut­res orga­nis­mes sus­cep­ti­bles d’a­mé­lio­rer l’ef­fi­ca­ci­té du méca­nis­me de sui­vi. Comp­te tenu du carac­tère haute­ment tech­ni­que de la Con­ven­ti­on-cad­re, le para­gra­phe 6 de l’ar­tic­le 23 souli­gne expres­sé­ment la pos­si­bi­li­té pour la Con­fé­rence des Par­ties de deman­der, le cas échéant, des con­seils d’experts.

133. La Con­fé­rence des Par­ties doit adop­ter des règles de pro­cé­du­re éta­blis­sant le mode de fonc­tion­ne­ment du système de sui­vi de la Con­ven­ti­on-cad­re, étant enten­du que ses règles de pro­cé­du­re doi­vent être con­çues de maniè­re à assurer un tel sui­vi de maniè­re effi­cace. Les règles de pro­cé­du­re doi­vent être adop­tées par con­sen­sus, c’est-à-dire par une décis­i­on pri­se en l’ab­sence d’ob­jec­tion sou­te­nue et sans vote for­mel. L’ar­tic­le 23, para­gra­phe 4, stipu­le en out­re que la Con­fé­rence des Par­ties doit adop­ter ces règles dans les dou­ze mois sui­vant l’en­trée en vigueur de la Convention-cadre.

134. Le para­gra­phe 7 con­cer­ne la con­tri­bu­ti­on des par­ties qui ne sont pas des États mem­bres du Con­seil de l’Eu­ro­pe au finance­ment des acti­vi­tés de la Con­fé­rence des par­ties. Les con­tri­bu­ti­ons des États mem­bres à ces acti­vi­tés sont cou­ver­tes coll­ec­ti­ve­ment par le bud­get ordi­naire du Con­seil de l’Eu­ro­pe, tan­dis que les États non mem­bres con­tri­buent indi­vi­du­el­le­ment, de maniè­re équi­ta­ble. La con­ven­ti­on-cad­re ne pré­cise pas la for­me sous laquel­le les con­tri­bu­ti­ons, y com­pris les mon­tants et les moda­li­tés, des par­ties qui ne sont pas mem­bres du Con­seil de l’Eu­ro­pe doi­vent être éta­b­lies. La base juri­di­que de la con­tri­bu­ti­on de ces par­ties sera la con­ven­ti­on-cad­re elle-même et le ou les actes éta­blis­sant cet­te con­tri­bu­ti­on. La con­ven­ti­on-cad­re n’af­fec­te pas les lois et règle­ments nati­on­aux des par­ties rela­tifs aux com­pé­ten­ces bud­gé­tai­res et aux pro­cé­du­res de vote du bud­get. Sans pré­ju­di­ce de l’ac­cord men­ti­onné ci-des­sus, l’un des moy­ens pour une Par­tie qui n’est pas membre du Con­seil de l’Eu­ro­pe de s’ac­quit­ter de sa con­tri­bu­ti­on est de payer dans la limi­te du bud­get approu­vé par la bran­che législative.

135. Le para­gra­phe 8 de cet­te dis­po­si­ti­on don­ne à la Con­fé­rence des Par­ties l’au­to­ri­té de déli­bé­rer sur la limi­ta­ti­on de la par­ti­ci­pa­ti­on à ses travaux de tou­te Par­tie qui a été exclue du Con­seil de l’Eu­ro­pe en ver­tu de l’ar­tic­le 8 des sta­tuts du Con­seil de l’Eu­ro­pe pour vio­la­ti­on gra­ve de l’ar­tic­le 3 des sta­tuts. Une action simi­lai­re peut être ent­re­pri­se à l’é­gard de tou­te par­tie non membre du Con­seil de l’Eu­ro­pe par une décis­i­on du Comi­té des mini­stres du Con­seil de l’Europe.


Artic­le 24 – Obli­ga­ti­on de déclaration

1. Chaque Par­tie pré­sen­te un rap­port à la Con­fé­rence des Par­ties dans les deux pre­miè­res années après être deve­nue Par­tie, puis péri­odi­quement par la suite, détail­lant les acti­vi­tés ent­re­pri­ses pour don­ner effet aux sous-para­gra­phes a et b du para­gra­phe 1 de l’ar­tic­le 3.

2. La Con­fé­rence des Par­ties déter­mi­ne le for­mat et la pro­cé­du­re du rap­port con­for­mé­ment à ses règles de procédure.

Rap­port explicatif

136. Pour per­mett­re une coopé­ra­ti­on et une mise à jour régu­liè­re de la mise en œuvre de la Con­ven­ti­on-cad­re, chaque Par­tie dev­rait pré­sen­ter un rap­port à la Con­fé­rence des Par­ties dans les deux pre­miè­res années sui­vant son acce­s­si­on au sta­tut de Par­tie, puis péri­odi­quement par la suite, détail­lant les acti­vi­tés ent­re­pri­ses pour don­ner effet aux para­gra­phes (a) et (b) du pre­mier ali­néa de l’ar­tic­le 3. La Con­fé­rence des Par­ties déter­mi­ne­ra le for­mat et la pro­cé­du­re du rap­port con­for­mé­ment à ses règles de pro­cé­du­re. Les auteurs du pro­jet encou­r­agent vive­ment les par­ties à invi­ter les signa­tai­res qui ne sont pas enco­re par­ties à la con­ven­ti­on-cad­re à par­ta­ger des infor­ma­ti­ons sur les mesu­res pri­ses pour fai­re face aux ris­ques pour les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit et pour faci­li­ter les échanges.


Artic­le 25 – Coopé­ra­ti­on internationale

1. Les Par­ties coopè­rent à la réa­li­sa­ti­on de l’ob­jet de la pré­sen­te Con­ven­ti­on. Les Par­ties sont en out­re encou­ra­gées, le cas échéant, à aider les États qui ne sont pas par­ties à la pré­sen­te Con­ven­ti­on à agir de maniè­re cohé­ren­te avec les ter­mes de la pré­sen­te Con­ven­ti­on et à en deve­nir partie.

2. Les Par­ties éch­an­gent, selon qu’il con­vi­ent, des infor­ma­ti­ons per­ti­nen­tes et uti­les ent­re elles sur les aspects liés à l’in­tel­li­gence arti­fi­ci­el­le qui peu­vent avoir des effets posi­tifs ou néga­tifs importants sur la jouis­sance des droits de l’hom­me, le fonc­tion­ne­ment de la démo­cra­tie et le respect de la léga­li­té, y com­pris les ris­ques et les effets qui se sont mani­fe­stés dans des con­tex­tes de recher­che et en rela­ti­on avec le sec­teur pri­vé. Les Par­ties sont encou­ra­gées à asso­cier, le cas échéant, les par­ties pren­an­tes con­cer­nées et les États qui ne sont pas par­ties à la pré­sen­te Con­ven­ti­on à ces éch­an­ges d’informations.

3. Les par­ties sont encou­ra­gées à ren­forcer co
-L’U­ni­on euro­pé­en­ne s’en­ga­ge à coopé­rer, y com­pris avec les par­ties pren­an­tes con­cer­nées le cas échéant, afin de pré­ve­nir et d’at­té­nuer les ris­ques et les effets néga­tifs sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit dans le cad­re des acti­vi­tés liées au cycle de vie des systè­mes d’in­tel­li­gence artificielle.

Rap­port explicatif

137. Cet artic­le expo­se les dis­po­si­ti­ons rela­ti­ves à la coopé­ra­ti­on inter­na­tio­na­le ent­re les Par­ties à la Con­ven­ti­on-cad­re. Il com­mence par men­ti­on­ner l’ob­li­ga­ti­on appli­ca­ble ent­re les par­ties de s’ac­cor­der mutu­el­le­ment la plus gran­de assi­stance pos­si­ble en rap­port avec la réa­li­sa­ti­on de l’ob­jec­tif de la pré­sen­te con­ven­ti­on-cad­re, qui est de garan­tir que les acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soi­ent plei­ne­ment com­pa­ti­bles avec les droits de l’hom­me, la démo­cra­tie et le prin­ci­pe de la légalité.

138. Cet­te obli­ga­ti­on géné­ra­le est com­plé­tée par un point important con­cer­nant la néces­si­té pour les Par­ties d’offrir une assi­stance, lorsqu’el­le est jugée appro­priée, aux États qui ne sont pas enco­re par­ties à la pré­sen­te Con­ven­ti­on-cad­re. Cet­te assi­stance dev­rait viser à gui­der ces États dans l’a­li­gne­ment de leurs actions sur les prin­cipes énon­cés dans la pré­sen­te Con­ven­ti­on-cad­re et, en défi­ni­ti­ve, à encou­ra­ger leur adhé­si­on à cel­le-ci. Cet effort de col­la­bo­ra­ti­on dev­rait cher­cher à pro­mou­voir un enga­ge­ment coll­ec­tif envers les objec­tifs et les dis­po­si­ti­ons de la Con­ven­ti­on-cad­re, en favo­ri­sant une adhé­si­on plus lar­ge et plus inclu­si­ve à ses dis­po­si­ti­ons par­mi les États du mon­de entier. Ce sou­ti­en et cet­te ori­en­ta­ti­on n’im­pli­quent pas néces­saire­ment une aide financière.

139. En out­re, la coopé­ra­ti­on pré­vue par la con­ven­ti­on-cad­re dev­rait inclu­re la faci­li­ta­ti­on du par­ta­ge d’in­for­ma­ti­ons per­ti­nen­tes con­cer­nant divers aspects de l’in­tel­li­gence arti­fi­ci­el­le ent­re les par­ties, y com­pris les mesu­res adop­tées pour pré­ve­nir ou atté­nuer les ris­ques et les inci­den­ces sur les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit. Cet éch­an­ge d’in­for­ma­ti­ons dev­rait por­ter sur les élé­ments sus­cep­ti­bles d’a­voir des effets sub­stan­tiels, posi­tifs ou néga­tifs, sur la jouis­sance des droits de l’hom­me, le fonc­tion­ne­ment des pro­ce­s­sus démo­cra­ti­ques et le respect de l’É­tat de droit, y com­pris les ris­ques et les effets qui se sont pro­duits dans le con­tex­te de la recher­che et en rela­ti­on avec le sec­teur pri­vé. Ce par­ta­ge s’é­tend éga­le­ment aux ris­ques et aux effets qui ont émer­gé dans les con­tex­tes de recher­che sur l’in­tel­li­gence arti­fi­ci­el­le, pro­mou­vant une com­pré­hen­si­on glo­ba­le des impli­ca­ti­ons mul­ti­for­mes de ces tech­no­lo­gies dans ces domain­es cri­ti­ques. À cet égard, la dis­po­si­ti­on souli­gne éga­le­ment la néces­si­té pour les Par­ties d’in­clu­re des acteurs non éta­ti­ques per­tin­ents, tels que des uni­ver­si­taires, des repré­sen­tants de l’in­du­strie et des orga­ni­sa­ti­ons de la socié­té civi­le, dans le but d’assurer un point de vue mul­ti­par­ti­te sur les que­sti­ons pertinentes.

140. Enfin, la dis­po­si­ti­on pré­cise direc­te­ment que, pour que le sui­vi de l’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re soit réel­le­ment effi­cace, les efforts de coopé­ra­ti­on des par­ties dev­rai­ent viser spé­ci­fi­quement la pré­ven­ti­on et l’at­té­nua­ti­on des ris­ques et des effets néga­tifs résul­tant des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le, et que cet­te coopé­ra­ti­on dev­rait en out­re inclu­re la pos­si­bi­li­té d’as­so­cier des repré­sen­tants d’or­ga­ni­sa­ti­ons non gou­ver­ne­men­ta­les et d’aut­res orga­nes compétents.


Artic­le 26 – Méca­nis­mes de con­trô­le effectifs

1. Chaque Par­tie éta­blit ou dési­gne un ou plu­sieurs méca­nis­mes effi­caces pour assurer le respect des obli­ga­ti­ons pré­vues par la pré­sen­te Convention.

2. Chaque Par­tie veil­le à ce que ces méca­nis­mes exer­cent leurs fonc­tions de maniè­re indé­pen­dan­te et impar­tia­le et qu’ils dis­po­sent des pou­voirs, de l’ex­per­ti­se et des res­sour­ces néces­saires pour s’ac­quit­ter effi­ca­ce­ment de leur mis­si­on de con­trô­le du respect des obli­ga­ti­ons pré­vues par la pré­sen­te Con­ven­ti­on, tel­le qu’el­le a été éta­b­lie par les Parties.

3. Si une Par­tie a pré­vu plus d’un méca­nis­me de ce type, elle pren­dra des mesu­res, lorsque cela est réa­li­sable, pour faci­li­ter une coopé­ra­ti­on effec­ti­ve ent­re eux.

4. Lorsqu’u­ne Par­tie a pré­vu des méca­nis­mes dif­fér­ents des struc­tures exi­stan­tes en matiè­re de droits de l’hom­me, elle doit prend­re des mesu­res, lorsque cela est pos­si­ble, pour pro­mou­voir une coopé­ra­ti­on effec­ti­ve ent­re t
es méca­nis­mes men­ti­onnés au para­gra­phe 1 et les struc­tures natio­na­les exi­stan­tes en matiè­re de droits de l’homme.

Rap­port explicatif

141. Cet­te dis­po­si­ti­on exi­ge que les Par­ties adoptent ou main­ti­en­nent des méca­nis­mes effi­caces pour assurer le respect des obli­ga­ti­ons pré­vues par la Con­ven­ti­on-cad­re. Comp­te tenu du carac­tère omni­pré­sent de l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le et du fait que tou­tes les Par­ties ont déjà mis en place diver­ses régle­men­ta­ti­ons et méca­nis­mes de con­trô­le pour la pro­tec­tion des droits de l’hom­me dans dif­fér­ents sec­teurs, la dis­po­si­ti­on souli­gne la néces­si­té pour les Par­ties de réex­ami­ner les méca­nis­mes déjà exi­stants afin de les appli­quer au con­tex­te des acti­vi­tés menées dans le cad­re du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Les Par­ties peu­vent
choi­sis­sent éga­le­ment d’é­tendre, de réaf­fec­ter, d’ad­ap­ter ou de redé­fi­nir leurs fonc­tions ou, le cas échéant, de mett­re en place des struc­tures ou des méca­nis­mes entiè­re­ment nou­veaux. Les dis­po­si­ti­ons du thi
s artic­le lais­sent expres­sé­ment ces décis­i­ons à la dis­cré­ti­on des par­ties, sous réser­ve des con­di­ti­ons énon­cées aux para­gra­phes 2 et 3, étant enten­du que les orga­nes con­cer­nés dev­rai­ent être dotés des pou­voirs suf­fi­sants pour mener effi­ca­ce­ment leurs acti­vi­tés de contrôle.

142. Qu’ils soi­ent cré­és, nou­vel­le­ment étab­lis ou dési­gnés, ces orga­nes doi­vent satis­fai­re aux critères énon­cés au para­gra­phe 2 de la dis­po­si­ti­on dans la mesu­re où ils doi­vent être fonc­tion­nel­le­ment indé­pen­dants des acteurs con­cer­nés au sein des bran­ches exé­cu­ti­ve et légis­la­ti­ve. La réfé­rence à “inde­pendent­ly and impar­ti­al­ly” au para­gra­phe 2 indi­que un degré suf­fi­sant de distance par rap­port aux acteurs con­cer­nés au sein des bran­ches exé­cu­ti­ve et légis­la­ti­ve, sou­mis à un con­trô­le per­met­tant à l’or­ga­ne ou aux orga­nes con­cer­nés de s’ac­quit­ter effi­ca­ce­ment de leurs fonc­tions. Ce ter­me cou­vre une varié­té de types d’in­dé­pen­dance fonc­tion­nel­le qui pour­rai­ent être mis en œuvre dans dif­fér­ents systè­mes juri­di­ques. Par exemp­le, cela peut inclu­re des fonc­tions de con­trô­le inté­g­rées dans des orga­nes gou­ver­ne­men­taux spé­ci­fi­ques qui éva­lu­ent ou super­vi­sent le déve­lo­p­pe­ment et l’uti­li­sa­ti­on de systè­mes d’in­tel­li­gence artificielle.

143. Un cer­tain nombre d’aut­res élé­ments men­ti­onnés dans la dis­po­si­ti­on con­tri­buent à garan­tir le niveau requis d’in­dé­pen­dance fonc­tion­nel­le : les orga­nes dev­rai­ent dis­po­ser des pou­voirs, de l’ex­per­ti­se, y com­pris en matiè­re de droits de l’hom­me, des con­nais­sances tech­ni­ques et des com­pé­ten­ces néces­saires, ain­si que d’aut­res res­sour­ces pour accom­plir leurs tâches de maniè­re efficace.

144. Comp­te tenu de l’ob­jet com­mun et de la pos­si­bi­li­té réel­le que le con­trô­le des acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le soit par­ta­gé ent­re plu­sieurs auto­ri­tés dans un cer­tain nombre de sec­teurs (ce qui est par­ti­cu­liè­re­ment vrai pour les par­ties dis­po­sant de méca­nis­mes spé­cia­li­sés en matiè­re de droits de l’hom­me, tels que la pro­tec­tion des don­nées, les orga­nis­mes de pro­mo­ti­on de l’é­ga­li­té ou les insti­tu­ti­ons natio­na­les des droits de l’hom­me (INDH), agis­sant dans un sec­teur ou dans des sec­teurs don­nés), la dis­po­si­ti­on exi­ge des par­ties qu’el­les encou­r­agent une com­mu­ni­ca­ti­on et une coopé­ra­ti­on effi­caces ent­re elles.

Cha­pit­re VIII – Clau­ses finales

Rap­port explicatif

145. Sous réser­ve de cer­tai­nes excep­ti­ons, les dis­po­si­ti­ons des artic­les 27 à 36 sont essen­ti­el­le­ment fon­dées sur les clau­ses fina­les types pour les con­ven­ti­ons, les pro­to­co­les addi­ti­on­nels et les pro­to­co­les modi­fi­ca­tifs con­clus au sein du Con­seil de l’Eu­ro­pe et adop­tés par le Comi­té des mini­stres lors de sa 1291e réuni­on des délé­gués des mini­stres, le 5 juil­let 2017.


Artic­le 27 – Effets de la convention

1. Si deux ou plu­sieurs par­ties ont déjà con­clu un accord ou un trai­té sur les que­sti­ons trai­tées dans la pré­sen­te con­ven­ti­on, ou si elles ont éta­b­li d’u­ne aut­re maniè­re des rela­ti­ons sur ces que­sti­ons, elles auront éga­le­ment le droit d’ap­pli­quer cet accord ou ce trai­té ou de régle­men­ter ces rela­ti­ons en con­sé­quence, à con­di­ti­on de le fai­re d’u­ne maniè­re qui ne soit pas incom­pa­ti­ble avec l’ob­jet et le but de la pré­sen­te convention.

2. Les par­ties qui sont mem­bres de l’U­ni­on euro­pé­en­ne appli­quent, dans leurs rela­ti­ons mutu­el­les, les règles de l’U­ni­on euro­pé­en­ne régis­sant les matiè­res qui relè­vent du champ d’ap­pli­ca­ti­on de la pré­sen­te con­ven­ti­on, sans pré­ju­di­ce de l’ob­jet et du but de cel­le-ci et sans pré­ju­di­ce de sa plei­ne appli­ca­ti­on avec les aut­res par­ties. Il en est de même pour les aut­res Par­ties dans la mesu­re où elles sont liées par de tel­les règles.

Rap­port explicatif

146. Le para­gra­phe 1 de l’ar­tic­le 27 pré­voit que les par­ties sont libres d’ap­pli­quer des accords ou des trai­tés con­clus anté­ri­eu­re­ment à la pré­sen­te con­ven­ti­on-cad­re, y com­pris des accords com­mer­ci­aux inter­na­ti­on­aux, qui régle­men­tent les acti­vi­tés du cycle de vie des systè­mes d’in­tel­li­gence arti­fi­ci­el­le rele­vant du champ d’ap­pli­ca­ti­on de la pré­sen­te con­ven­ti­on-cad­re. Tou­te­fois, les par­ties doi­vent respec­ter l’ob­jet et le but de la con­ven­ti­on-cad­re lorsqu’el­les agis­sent de la sor­te et ne peu­vent donc pas avoir d’ob­li­ga­ti­ons qui irai­ent à l’en­cont­re de son objet et de son but.

147. Le para­gra­phe 2 de cet artic­le recon­naît éga­le­ment l’in­té­gra­ti­on accrue de l’U­ni­on euro­pé­en­ne, en par­ti­cu­lier en ce qui con­cer­ne la régle­men­ta­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le. Ce para­gra­phe per­met donc aux États mem­bres de l’U­ni­on euro­pé­en­ne d’ap­pli­quer ent­re eux le droit de l’U­ni­on euro­pé­en­ne qui régit les matiè­res trai­tées dans la pré­sen­te con­ven­ti­on-cad­re. Les auteurs de la pro­po­si­ti­on visa­i­ent à inclu­re dans le droit de l’U­ni­on euro­pé­en­ne les mesu­res, prin­cipes et pro­cé­du­res pré­vus par le cad­re juri­di­que de l’U­ni­on euro­pé­en­ne, en par­ti­cu­lier les lois, règle­ments ou dis­po­si­ti­ons admi­ni­stra­ti­ves, ain­si que d’aut­res exi­gen­ces, y com­pris les décis­i­ons de justi­ce. Le para­gra­phe 2 est donc desti­né à cou­vr­ir les rela­ti­ons inter­nes ent­re les États mem­bres de l’U­ni­on euro­pé­en­ne et ent­re les États mem­bres de l’U­ni­on euro­pé­en­ne et les insti­tu­ti­ons, orga­nes, bureaux et agen­ces de l’U­ni­on euro­pé­en­ne. La même clau­se dev­rait éga­le­ment s’ap­pli­quer aux aut­res par­ties qui appli­quent les règles de l’U­ni­on euro­pé­en­ne dans la mesu­re où elles sont liées par ces règles en rai­son de leur par­ti­ci­pa­ti­on au mar­ché inté­ri­eur de l’U­ni­on euro­pé­en­ne ou sont sou­mi­ses au trai­te­ment du mar­ché intérieur.

148. La pré­sen­te dis­po­si­ti­on n’af­fec­te pas la plei­ne appli­ca­ti­on de la pré­sen­te con­ven­ti­on-cad­re ent­re l’U­ni­on euro­pé­en­ne ou des par­ties qui sont mem­bres de l’U­ni­on euro­pé­en­ne et d’aut­res par­ties. De même, cet­te dis­po­si­ti­on n’af­fec­te pas la plei­ne appli­ca­ti­on de la pré­sen­te con­ven­ti­on-cad­re ent­re les par­ties qui ne sont pas mem­bres de l’U­ni­on euro­pé­en­ne, dans la mesu­re où elles sont éga­le­ment liées par les mêmes règles et aut­res par­ties à la convention-cadre.


Artic­le 28 – Amendements

1. Des amen­de­ments à la pré­sen­te Con­ven­ti­on peu­vent être pro­po­sés par tou­te Par­tie, par le Comi­té des Mini­stres du Con­seil de l’Eu­ro­pe ou par la Con­fé­rence des Parties.

2. Tou­te pro­po­si­ti­on d’a­men­de­ment est com­mu­ni­quée aux par­ties par le Secré­tai­re géné­ral du Con­seil de l’Europe.

3. Tout amen­de­ment pro­po­sé par une Par­tie, ou par le Comi­té des Mini­stres, est com­mu­ni­qué à la Con­fé­rence des Par­ties, qui sou­met au Comi­té des Mini­stres son avis sur l’a­men­de­ment proposé.

4. Le Comi­té des Mini­stres exami­ne l’a­men­de­ment pro­po­sé et l’a­vis sou­mis par la Con­fé­rence des Par­ties et peut approu­ver l’amendement.

5. Le tex­te de tout amen­de­ment approu­vé par le Comi­té des Mini­stres con­for­mé­ment au para­gra­phe 4 est trans­mis aux Par­ties pour acceptation.

6. Tout amen­de­ment approu­vé con­for­mé­ment au para­gra­phe 4 ent­rera en vigueur le tren­tiè­me jour sui­vant la date à laquel­le tou­tes les par­ties auront infor­mé le Secré­tai­re géné­ral de leur acceptation.

Rap­port explicatif

149. Cet artic­le pré­voit la pos­si­bi­li­té d’a­men­der la con­ven­ti­on-cad­re et éta­blit le méca­nis­me de ce pro­ce­s­sus. Cet­te pro­cé­du­re d’a­men­de­ment est prin­ci­pa­le­ment desti­née à des modi­fi­ca­ti­ons rela­ti­ve­ment mineu­res de natu­re pro­cé­du­ra­le et tech­ni­que. Les auteurs de la pro­po­si­ti­on ont con­sidé­ré que des modi­fi­ca­ti­ons importan­tes pou­vai­ent être appor­tées à la con­ven­ti­on-cad­re sous la for­me d’a­men­de­ments aux protocoles.

150. Des amen­de­ments aux dis­po­si­ti­ons de la con­ven­ti­on-cad­re peu­vent être pro­po­sés par une par­tie, par le comi­té des mini­stres du Con­seil de l’Eu­ro­pe ou par la con­fé­rence des par­ties. Ces amen­de­ments sont alors com­mu­ni­qués aux par­ties à la convention-cadre.

151. Sur tout amen­de­ment pro­po­sé par une Par­tie ou par le Comi­té des Mini­stres, la Con­fé­rence des Par­ties sou­met au Comi­té des Mini­stres son avis sur l’a­men­de­ment proposé.

152. Le Comi­té des Mini­stres exami­ne l’a­men­de­ment pro­po­sé et tou­te opi­ni­on sou­mi­se par la Con­fé­rence des Par­ties et peut approu­ver l’amendement.

153. Con­for­mé­ment aux para­gra­phes 5 et 6, tout amen­de­ment approu­vé par le Comi­té des mini­stres n’en­trerait en vigueur qu’a­près que tou­tes les Par­ties aurai­ent infor­mé le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe de leur accep­t­ati­on. Cet­te exi­gence vise à assurer l’é­ga­li­té de par­ti­ci­pa­ti­on au pro­ce­s­sus décis­i­on­nel pour tou­tes les Par­ties et à garan­tir que la Con­ven­ti­on-cad­re évo­luera de maniè­re uniforme.


Artic­le 29 – Règle­ment des litiges

En cas de dif­fé­rend ent­re des par­ties au sujet de l’in­ter­pré­ta­ti­on ou de l’ap­pli­ca­ti­on de la pré­sen­te con­ven­ti­on, ces par­ties recher­chent un règle­ment du dif­fé­rend par voie de négo­cia­ti­on ou par tout aut­re moy­en paci­fi­que de leur choix, y com­pris par l’in­ter­mé­di­ai­re de la con­fé­rence des par­ties, com­me pré­vu à l’ar­tic­le 23, para­gra­phe 2,
sous-para­gra­phe e.

Rap­port explicatif

154. Les auteurs de la pro­po­si­ti­on ont esti­mé qu’il était important d’in­clu­re dans le tex­te de la con­ven­ti­on-cad­re un artic­le sur le règle­ment des dif­fé­rends, qui impo­se aux par­ties l’ob­li­ga­ti­on de recher­cher un règle­ment paci­fi­que de tout dif­fé­rend rela­tif à l’ap­pli­ca­ti­on ou à l’in­ter­pré­ta­ti­on de la con­ven­ti­on-cad­re par voie de négo­cia­ti­on ou par tout aut­re moy­en paci­fi­que de leur choix.

155. En plus de la négo­cia­ti­on spé­ci­fi­quement men­ti­onnée au pre­mier para­gra­phe du pré­sent artic­le, les par­ties peu­vent avoir recours à tout aut­re moy­en paci­fi­que de leur choix, tel que visé à l’ar­tic­le 33 de la Char­te des Nati­ons unies. Com­me le pré­voit l’ar­tic­le 23, elles peu­vent éga­le­ment, par con­sen­te­ment mutuel, se tour­ner vers la Con­fé­rence des Par­ties à tout moment. La dis­po­si­ti­on ne s’é­tend pas davan­ta­ge sur les pro­cé­du­res spé­ci­fi­ques à adop­ter dans le cad­re d’un dif­fé­rend poten­tiel. Tou­te pro­cé­du­re de règle­ment des dif­fé­rends doit être con­ve­nue par les par­ties concernées.


Artic­le 30 – Signa­tu­re et entrée en vigueur

1. La pré­sen­te con­ven­ti­on est ouver­te à la signa­tu­re des États mem­bres du Con­seil de l’Eu­ro­pe, des États non mem­bres qui ont par­ti­ci­pé à sa réd­ac­tion et de l’U­ni­on européenne.

2. La pré­sen­te Con­ven­ti­on est sou­mi­se à rati­fi­ca­ti­on, accep­t­ati­on ou appro­ba­ti­on. Les instru­ments de rati­fi­ca­ti­on, d’ac­cep­t­ati­on ou d’ap­pro­ba­ti­on sont dépo­sés auprès du Secré­tai­re géné­ral du Con­seil de l’Europe.

3. La pré­sen­te con­ven­ti­on ent­re en vigueur le pre­mier jour du mois qui suit l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date à laquel­le cinq signa­tai­res, dont au moins trois États mem­bres du Con­seil de l’Eu­ro­pe, ont expri­mé leur con­sen­te­ment à être liés par la pré­sen­te con­ven­ti­on con­for­mé­ment au para­gra­phe 2.

4. En ce qui con­cer­ne tout signa­tai­re qui expri­mera ulté­ri­eu­re­ment son con­sen­te­ment à être lié par la pré­sen­te Con­ven­ti­on, cel­le-ci ent­rera en vigueur le pre­mier jour du mois sui­vant l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date de dépôt de son instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on ou d’approbation.

Rap­port explicatif

156. Le para­gra­phe 1 indi­que que la con­ven­ti­on-cad­re est ouver­te à la signa­tu­re des États mem­bres du Con­seil de l’Eu­ro­pe, des États non mem­bres qui ont par­ti­ci­pé à son éla­bo­ra­ti­on (Argen­ti­ne, Austra­lie, Cana­da, Costa Rica, Saint-Siè­ge, Israël, Japon, Mexi­que, Pérou, États-Unis et Uru­gu­ay) et de l’U­ni­on euro­pé­en­ne. Dès l’en­trée en vigueur de la con­ven­ti­on-cad­re, con­for­mé­ment au para­gra­phe 3, les aut­res États non mem­bres qui ne sont pas cou­verts par la pré­sen­te dis­po­si­ti­on peu­vent être invi­tés à adhé­rer au cadre.

k Con­ven­ti­on, con­for­mé­ment à l’ar­tic­le 31, para­gra­phe 1.

157. Le para­gra­phe 2 pré­cise que le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe est dépo­si­taire des instru­ments de rati­fi­ca­ti­on, d’ac­cep­t­ati­on ou d’ap­pro­ba­ti­on de la pré­sen­te convention-cadre.

158. Le para­gra­phe 3 fixe à cinq le nombre de rati­fi­ca­ti­ons, d’ac­cep­t­ati­ons ou d’ap­pro­ba­ti­ons néces­saires pour l’en­trée en vigueur de la con­ven­ti­on-cad­re. Au moins trois d’ent­re eux doi­vent être effec­tués par des mem­bres du Con­seil de l’Eu­ro­pe, con­for­mé­ment à la pra­tique de l’Or­ga­ni­sa­ti­on en matiè­re d’é­la­bo­ra­ti­on des traités.


Artic­le 31 – Accession

1. Après l’en­trée en vigueur de la pré­sen­te con­ven­ti­on, le Comi­té des mini­stres du Con­seil de l’Eu­ro­pe peut, après avoir con­sul­té les par­ties à la pré­sen­te con­ven­ti­on et obte­nu leur accord unani­me, invi­ter tou­te per­son­ne à par­ti­ci­per à la réunion.

État non membre du Con­seil de l’Eu­ro­pe n’a­yant pas par­ti­ci­pé à l’é­la­bo­ra­ti­on de la pré­sen­te con­ven­ti­on à adhé­rer à la pré­sen­te con­ven­ti­on par décis­i­on pri­se à la majo­ri­té requi­se
à l’ar­tic­le 20.d des sta­tuts du Con­seil de l’Eu­ro­pe, et par un vote à l’un­ani­mi­té des repré­sen­tants des par­ties habi­li­tées à sié­ger au Comi­té des ministres.

2. Pour tout État adhé­rent, la pré­sen­te Con­ven­ti­on ent­rera en vigueur le pre­mier jour du mois sui­vant l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date de dépôt de l’in­stru­ment d’ad­hé­si­on auprès du Secré­tai­re géné­ral du Con­seil de l’Europe.

Rap­port explicatif

159. Après l’en­trée en vigueur de la pré­sen­te Con­ven­ti­on-cad­re, le Comi­té des Mini­stres du Con­seil de l’Eu­ro­pe peut, après avoir con­sul­té les Par­ties à la pré­sen­te Con­ven­ti­on-cad­re et obte­nu leur con­sen­te­ment unani­me, invi­ter tout État non membre du Con­seil de l’Eu­ro­pe qui n’a pas par­ti­ci­pé à l’é­la­bo­ra­ti­on de la Con­ven­ti­on-cad­re à y adhé­rer. Cet­te décis­i­on requiert la majo­ri­té des deux tiers pré­vue à l’ar­tic­le 20.d des Sta­tuts du Con­seil de l’Eu­ro­pe et le vote à l’un­ani­mi­té des repré­sen­tants des Par­ties ayant le droit de sié­ger au Comi­té des Ministres.


Artic­le 32 – Appli­ca­ti­on territoriale

1. Tout État ou l’U­ni­on euro­pé­en­ne peut, au moment de la signa­tu­re ou au moment du dépôt de son instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’ad­hé­si­on, pré­cis­er le ou les ter­ri­toires aux­quels s’ap­pli­que la pré­sen­te convention.

2. Tou­te Par­tie peut, à une date ulté­ri­eu­re, par une décla­ra­ti­on adres­sée au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe, étendre l’ap­pli­ca­ti­on de la pré­sen­te Con­ven­ti­on à tout aut­re ter­ri­toire dési­gné dans la décla­ra­ti­on. En ce qui con­cer­ne ce ter­ri­toire, la pré­sen­te Con­ven­ti­on ent­rera en vigueur le pre­mier jour du mois qui suit l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date de récep­ti­on de la décla­ra­ti­on par le Secré­tai­re Général.

3. Tou­te décla­ra­ti­on fai­te en ver­tu des deux para­gra­phes pré­cé­dents peut être reti­rée, en ce qui con­cer­ne tout ter­ri­toire dési­gné dans ladi­te décla­ra­ti­on, par noti­fi­ca­ti­on adres­sée au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe. Le retrait pren­dra effet le pre­mier jour du mois sui­vant l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date de récep­ti­on de ladi­te noti­fi­ca­ti­on par le Secré­tai­re général.

Rap­port explicatif

160. Le para­gra­phe 1 est une clau­se d’ap­pli­ca­ti­on ter­ri­to­ria­le simi­lai­re à cel­les sou­vent uti­li­sées dans la pra­tique des trai­tés inter­na­ti­on­aux, y com­pris les con­ven­ti­ons éla­bo­rées au sein du Con­seil de l’Eu­ro­pe. Tou­te par­tie peut spé­ci­fier le ou les ter­ri­toires aux­quels la con­ven­ti­on-cad­re s’ap­pli­que. Il est bien enten­du qu’il serait incom­pa­ti­ble avec l’ob­jet et le but de la Con­ven­ti­on-cad­re pour tou­te Par­tie d’ex­clu­re des par­ties de son ter­ri­toire de l’ap­pli­ca­ti­on de la Con­ven­ti­on-cad­re sans rai­son valable (tel­le que l’e­xi­stence de sta­tuts juri­di­ques dif­fér­ents ou de systè­mes juri­di­ques dif­fér­ents appli­ca­bles aux que­sti­ons trai­tées dans la Con­ven­ti­on-cad­re).
on).

161. Le para­gra­phe 2 con­cer­ne l’ex­ten­si­on de l’ap­pli­ca­ti­on de la con­ven­ti­on-cad­re aux ter­ri­toires dont les par­ties sont respons­ables des rela­ti­ons inter­na­tio­na­les ou pour le comp­te des­quels elles sont auto­ri­sées à don­ner des ord­res de mission.


Artic­le 33 – Clau­se fédérale

1. Un État fédé­ral peut se réser­ver le droit d’as­su­mer les obli­ga­ti­ons pré­vues par la pré­sen­te con­ven­ti­on con­for­mé­ment à ses prin­cipes fon­da­men­taux régis­sant les rela­ti­ons ent­re son gou­ver­ne­ment cen­tral et les États con­sti­tu­tifs ou aut­res enti­tés ter­ri­to­ria­les simi­lai­res, à con­di­ti­on que la pré­sen­te con­ven­ti­on s’ap­pli­que au gou­ver­ne­ment cen­tral de l’É­tat fédé­ral.
.

2. En ce qui con­cer­ne les dis­po­si­ti­ons de la pré­sen­te con­ven­ti­on, l’ap­pli­ca­ti­on des dis­po­si­ti­ons qui relè­vent de la com­pé­tence des États con­sti­tu­tifs ou d’aut­res enti­tés ter­ri­to­ria­les simi­lai­res qui sont
qui ne sont pas tenus par le système con­sti­tu­ti­on­nel de la fédé­ra­ti­on de prend­re des mesu­res légis­la­ti­ves, le gou­ver­ne­ment fédé­ral infor­me de ces dis­po­si­ti­ons, avec son avis favorable, les auto­ri­tés com­pé­ten­tes de ces États et les encou­ra­ge à prend­re les mesu­res appro­priées pour leur don­ner effet.

Rap­port explicatif

162. Con­for­mé­ment à l’ob­jec­tif de per­mett­re au plus grand nombre pos­si­ble d’É­tats de deve­nir par­ties à la Con­ven­ti­on-cad­re, l’ar­tic­le 33 per­met une réser­ve qui est desti­née à com­pen­ser les dif­fi­cul­tés aux­quel­les les États fédé­rés peu­vent être con­fron­tés en rai­son de leur répar­ti­ti­on carac­té­ri­stique des pou­voirs ent­re les auto­ri­tés cen­tra­les et régio­na­les et du fait que, dans cer­ta­ins systè­mes, les gou­ver­ne­ments fédé­raux du pays en que­sti­on peu­vent ne pas être con­sti­tu­ti­on­nel­le­ment com­pé­tents pour rem­plir les obli­ga­ti­ons du trai­té. Des pré­cé­dents exi­stent pour des décla­ra­ti­ons ou des réser­ves fédé­ra­les à d’aut­res accords internationaux[7], y com­pris, dans le cad­re de la Con­ven­ti­on sur la cyber­cri­mi­na­li­té (STE n° 185) sur le ren­force­ment de la coopé­ra­ti­on et la divul­ga­ti­on des preu­ves élec­tro­ni­ques du 23 novembre 2001 (artic­le 41).

163. L’ar­tic­le 33 recon­naît que cer­tai­nes varia­ti­ons dans la cou­ver­tu­re peu­vent résul­ter de la légis­la­ti­on et de la pra­tique natio­na­les bien éta­b­lies d’u­ne Par­tie qui est un État fédé­ral. Ces varia­ti­ons doi­vent être fon­dées sur sa con­sti­tu­ti­on ou sur d’aut­res prin­cipes et pra­ti­ques fon­da­men­taux rela­tifs à la répar­ti­ti­on des pou­voirs ent­re le gou­ver­ne­ment cen­tral et les États con­sti­tu­tifs ou les enti­tés ter­ri­to­ria­les d’un État fédé­ral en ce qui con­cer­ne les matiè­res cou­ver­tes par la Convention-cadre.

164. Cer­ta­ins artic­les de la con­ven­ti­on-cad­re con­ti­en­nent des exi­gen­ces rela­ti­ves à l’ad­op­ti­on ou au main­ti­en de mesu­res légis­la­ti­ves, admi­ni­stra­ti­ves ou aut­res qu’un État fédé­ral peut se trou­ver dans l’im­pos­si­bi­li­té d’e­xi­ger de ses États con­sti­tu­tifs ou d’aut­res enti­tés ter­ri­to­ria­les simi­lai­res qu’ils adoptent ou maintiennent.

165. En out­re, le para­gra­phe 2 de l’ar­tic­le 33 dis­po­se que, en ce qui con­cer­ne les dis­po­si­ti­ons dont la mise en œuvre relè­ve de la com­pé­tence légis­la­ti­ve des États mem­bres ou d’aut­res enti­tés ter­ri­to­ria­les simi­lai­res, le gou­ver­ne­ment fédé­ral les sou­met aux auto­ri­tés de ces enti­tés avec un pré­ju­gé favorable, en les encou­ra­geant à prend­re les mesu­res appro­priées pour leur don­ner effet.


Artic­le 34 – Réservations

1. Par noti­fi­ca­ti­on écri­te adres­sée au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe, tout État peut, au moment de la signa­tu­re ou au moment du dépôt de son instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’ad­hé­si­on, décla­rer qu’il se prév­aut de la réser­ve pré­vue au para­gra­phe 1 de l’ar­tic­le 33.

2. Aucu­ne aut­re réser­ve ne peut être fai­te au tit­re de la pré­sen­te convention.

Rap­port explicatif

166. L’ar­tic­le 34 pré­cise qu’un État peut fai­re usa­ge de la réser­ve pré­vue au para­gra­phe 1 de l’ar­tic­le 33, soit au moment de la signa­tu­re, soit après le dépôt de son instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’adhésion.

167. Le para­gra­phe 2 pré­cise qu’au­cu­ne réser­ve ne peut être fai­te à l’é­gard de l’u­ne quel­con­que des dis­po­si­ti­ons de la pré­sen­te con­ven­ti­on-cad­re, sous réser­ve des excep­ti­ons pré­vues au para­gra­phe 1 du pré­sent article.


Artic­le 35 – Dénonciation

1. Tou­te par­tie peut, à tout moment, dénon­cer la pré­sen­te con­ven­ti­on par noti­fi­ca­ti­on adres­sée au Secré­tai­re géné­ral du Con­seil de l’Europe.

2. Cet­te dénon­cia­ti­on prend effet le pre­mier jour du mois sui­vant l’ex­pi­ra­ti­on d’u­ne péri­ode de trois mois après la date de récep­ti­on de la noti­fi­ca­ti­on par le Secré­tai­re général.

Rap­port explicatif

168. Con­for­mé­ment à la Con­ven­ti­on de Vien­ne des Nati­ons Unies sur le droit des trai­tés, l’ar­tic­le 35 per­met à tou­te par­tie de dénon­cer la Con­ven­ti­on-cad­re à tout moment. La seu­le exi­gence est que la dénon­cia­ti­on soit noti­fi­ée au Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe, qui agi­ra en tant que dépo­si­taire de la Convention-cadre.

169. Cet­te dénon­cia­ti­on prend effet trois mois après avoir été reçue par le Secré­tai­re général.


Artic­le 36 – Notification

Le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe noti­fie­ra aux États mem­bres du Con­seil de l’Eu­ro­pe, aux États non mem­bres qui ont par­ti­ci­pé à l’é­la­bo­ra­ti­on de la pré­sen­te Con­ven­ti­on, à l’U­ni­on euro­pé­en­ne, à tout signa­tai­re, à tout État con­trac­tant, à tou­te par­tie et à tout aut­re État qui a été invi­té à adhé­rer à la pré­sen­te Con­ven­ti­on, de :

a. tou­te signature ;

b.le dépôt de tout instru­ment de rati­fi­ca­ti­on, d’ac­cep­t­ati­on, d’ap­pro­ba­ti­on ou d’adhésion ;

c.tou­te date d’en­trée en vigueur de la pré­sen­te con­ven­ti­on, con­for­mé­ment à l’ar­tic­le 30, para­gra­phes 3 et 4, et à l’ar­tic­le 31, para­gra­phe 2 ;

d.tout amen­de­ment adop­té con­for­mé­ment à l’ar­tic­le 28 et la date d’en­trée en vigueur de cet amendement ;

e.tou­te décla­ra­ti­on fai­te en appli­ca­ti­on de l’ar­tic­le 3, para­gra­phe 1, sous-para­gra­phe b ;

f.tou­te réser­ve et tout retrait d’u­ne réser­ve fai­te en appli­ca­ti­on de l’ar­tic­le 34 ;

g.tou­te dénon­cia­ti­on fai­te en appli­ca­ti­on de l’ar­tic­le 35 ;

h.tout aut­re acte, décla­ra­ti­on, noti­fi­ca­ti­on ou com­mu­ni­ca­ti­on ayant trait à la pré­sen­te convention.

Rap­port explicatif

170. L’ar­tic­le 36 énumè­re les noti­fi­ca­ti­ons que le Secré­tai­re géné­ral du Con­seil de l’Eu­ro­pe, en tant que dépo­si­taire de la Con­ven­ti­on-cad­re, est tenu de fai­re, et dési­gne éga­le­ment les desti­na­tai­res de ces noti­fi­ca­ti­ons (les États et l’U­ni­on européenne).