Ven­te à emporter (AI)
  • Le rap­port deman­de une cla­ri­fi­ca­ti­on des beso­ins régle­men­tai­res en matiè­re de systè­mes décis­i­on­nels auto­ma­ti­sés (ADMS) et d’IA, notam­ment la trans­pa­rence, l’é­thi­que, la non-discrimination.
  • Des incer­ti­tu­des sub­si­stent quant à la responsa­bi­li­té des pré­vi­si­ons, des recom­man­da­ti­ons et des décis­i­ons pri­ses par ADMS.
  • Le Con­seil fédé­ral ne voit actu­el­le­ment pas la néces­si­té d’un nou­veau cad­re légis­la­tif géné­ral ; des adap­t­ati­ons ponc­tu­el­les et les dis­po­si­ti­ons exi­stan­tes en matiè­re de pro­tec­tion des don­nées suf­fi­sent généralement.
  • Le Con­seil fédé­ral ren­voie aux initia­ti­ves natio­na­les et inter­na­tio­na­les en cours (CNAI, pla­te­for­mes, moni­to­ring de l’UE) et rejet­te le postulat.

Postu­lat Mar­ti (21.4406) : Rap­port sur la régle­men­ta­ti­on des systè­mes décis­i­on­nels automatisés

Tex­te soumis

Le Con­seil fédé­ral est char­gé de pré­sen­ter un rap­port mon­trant où se situ­ent la néces­si­té éven­tu­el­le de régle­men­ter les systè­mes décis­i­on­nels auto­ma­ti­sés (ADMS) ou l’in­tel­li­gence arti­fi­ci­el­le de l’entre­pri­se. L’ac­cent est mis sur la garan­tie de la trans­pa­rence, le respect des direc­ti­ves éthi­ques et la pré­ven­ti­on de la dis­cri­mi­na­ti­on ou de la mani­pu­la­ti­on. Un aut­re aspect con­cer­ne les que­sti­ons d’at­tri­bu­ti­on des responsa­bi­li­tés et de responsa­bi­li­té, où des cla­ri­fi­ca­ti­ons juri­di­ques sont néces­saires en rela­ti­on avec les pré­vi­si­ons, les recom­man­da­ti­ons ou les décis­i­ons pri­ses par ADMS. Il s’a­git de déter­mi­ner si les bases léga­les et les instru­ments sont suf­fi­sants pour fai­re face à ces ris­ques. Dans ce con­tex­te, il s’a­git éga­le­ment de Créa­ti­on d’u­ne com­mis­si­on natio­na­le d’é­thi­que seront exami­nés. Par ail­leurs, le rap­port doit mon­trer où ces systè­mes déjà uti­li­sé dans le ser­vice public vien­nent (p. ex. pour­suites péna­les) et où, le cas échéant, les bases juri­di­ques font défaut.

Justi­fi­ca­ti­on

Les systè­mes décis­i­on­nels auto­ma­ti­sés ou l’in­tel­li­gence arti­fi­ci­el­le sont uti­li­sés dans un nombre crois­sant de domain­es, tant dans le sec­teur pri­vé que dans le sec­teur public. Cet­te tech­no­lo­gie com­por­te éga­le­ment cer­ta­ins ris­ques. D’u­ne part, cer­ta­ins exemp­les mont­rent que des décis­i­ons peu­vent être pri­ses en rai­son de dis­tor­si­ons dans les modè­les ou les don­nées d’ana­ly­se ou en rai­son de cir­con­stances socia­les ou éco­no­mi­ques. dis­cri­mi­na­toire peu­vent être (par exemp­le Ama­zon et le système de can­di­da­tu­re) ou faux ou dan­ge­reux (outils de dia­gno­stic IBM Wat­son pour l’on­co­lo­gie). De même, ils peu­vent être asso­ciés à de gra­ves Rest­ric­tions aux droits fon­da­men­taux ou un effet dissua­sif sur l’e­xer­ci­ce des droits fon­da­men­taux, par exemp­le dans le domaine de la poli­ce pré­ven­ti­ve. Même les systè­mes con­sidé­rés par la Com­mis­si­on euro­pé­en­ne com­me pré­sen­tant un ris­que moind­re peu­vent être haute­ment pro­blé­ma­ti­ques, com­me les “deep fakes”.

Dans le sec­teur pri­vé com­me dans le sec­teur public, il est sou­vent dif­fi­ci­le pour le public et les per­son­nes con­cer­nées de savoir ce qui se pas­se. sou­vent non iden­ti­fia­bleIl est dif­fi­ci­le de savoir où les ADMS sont uti­li­sés et quand ils sont con­cer­nés. D’aut­re part, il n’est sou­vent pas clair dans quel but et par qui un système est uti­li­sé et com­ment il fonc­tion­ne. C’est à cela que le rap­port doit remé­dier. Il doit en out­re mon­trer com­ment ces Trans­pa­rence (par exemp­le, en impo­sant des obli­ga­ti­ons de rens­eig­ne­ment et d’in­for­ma­ti­on aux per­son­nes con­cer­nées ou en créant un regist­re public con­tenant des infor­ma­ti­ons de base sur les SGAD uti­li­sés dans le sec­teur public). La néces­si­té d’a­gir a éga­le­ment été souli­g­née dans le Pri­se de posi­ti­on “Un cad­re juri­di­que pour l’in­tel­li­gence arti­fi­ci­el­le” de la Digi­tal Socie­ty Initia­ti­ve de l’uni­ver­si­té de Zurich est maintenue.

Avis du Con­seil fédé­ral du 16.02.2022

L’in­tel­li­gence arti­fi­ci­el­le (IA) soulè­ve de nombreu­ses que­sti­ons pour les sites éco­no­mi­ques inno­vants et tour­nés vers l’a­ve­nir, qui agis­sent selon les prin­cipes de l’É­tat de droit. Le Con­seil fédé­ral s’est déjà pen­ché sur la que­sti­on en 2019 lors d’u­ne Bilan de la situa­ti­on avec ce sujet quand les le grou­pe de tra­vail inter­dé­par­te­men­tal sur les IC a publié un rap­port à ce sujet. Il a éga­le­ment adop­té en 2020 Lignes direc­tri­ces pour l’uti­li­sa­ti­on de l’IA dans l’ad­mi­ni­stra­ti­on fédé­ra­le et a char­gé le Dépar­te­ment de l’en­vi­ron­ne­ment, des trans­ports, de l’é­ner­gie et de la com­mu­ni­ca­ti­on (DETEC) de véri­fier régu­liè­re­ment son appli­ca­ti­on et son déve­lo­p­pe­ment en col­la­bo­ra­ti­on avec les offices con­cer­nés. En 2021, le Dépar­te­ment fédé­ral de l’in­té­ri­eur (DFI) a reçu le man­dat d’é­la­bo­rer d’i­ci le prin­temps 2022 un Réseau de com­pé­ten­ces en intel­li­gence arti­fi­ci­el­le (CNAI) à mett­re en place. L’ana­ly­se des beso­ins et des oppor­tu­ni­tés se recou­pe donc lar­ge­ment avec la pri­se de posi­ti­on de la Digi­tal Socie­ty Initia­ti­ve de l’Uni­ver­si­té de Zurich men­ti­onnée dans le postulat.

En ce qui con­cer­ne les dis­po­si­ti­ons léga­les, le Con­seil fédé­ral est arri­vé à la con­clu­si­on, sur la base du rap­port men­ti­onné, que pas de nou­veau cad­re légal géné­ral néces­saire pour le moment est. L’IA peut sou­le­ver des que­sti­ons dans dif­fér­ents domain­es (p. ex. dia­gno­stic médi­cal, agri­cul­tu­re, tri­bu­naux), mais cel­les-ci sont cou­ver­tes par les bases juri­di­ques en vigueur et peu­vent géné­ra­le­ment trou­ver une répon­se satis­fais­an­te. Si ce n’est pas le cas, des solu­ti­ons ponc­tu­el­les doi­vent être trou­vées. Dans cer­ta­ins domain­es, cela peut con­dui­re à la révi­si­on d’u­ne loi ou d’u­ne ordon­nan­ce. Il con­vi­ent ici de se réfé­rer à l’exemp­le pré­sen­té dans le Année 2020 adop­tée par le nou­vel­le loi sur la pro­tec­tion des don­nées qui pré­voit déjà plu­sieurs dis­po­si­ti­ons visa­nt à amé­lio­rer la trans­pa­rence dans ce domaine, tant dans le sec­teur pri­vé que dans le sec­teur public. L’ar­tic­le 21 intro­duit une obli­ga­ti­on d’in­for­ma­ti­on pour les décis­i­ons indi­vi­du­el­les auto­ma­ti­sées, la per­son­ne con­cer­née pou­vant deman­der que cet­te décis­i­on soit réex­ami­née par une per­son­ne phy­si­que. Les per­son­nes qui font valoir leur droit d’ac­cès sont infor­mées de l’e­xi­stence d’u­ne décis­i­on indi­vi­du­el­le auto­ma­ti­sée ain­si que de la logi­que sur laquel­le repo­se la décis­i­on (art. 25, al. 2, let. f). En ce qui con­cer­ne le trai­te­ment de don­nées per­son­nel­les par des orga­nes fédé­raux, une base dans une loi au sens for­mel est néces­saire si la natu­re et les moda­li­tés du trai­te­ment des don­nées (dont fait par­tie l’uti­li­sa­ti­on d’al­go­rith­mes) peu­vent ent­raî­ner une att­ein­te gra­ve aux droits fon­da­men­taux de la per­son­ne con­cer­née (art. 34, al. 2, let. c). Le Con­seil fédé­ral a char­gé le Dépar­te­ment fédé­ral des finan­ces (DFF) de cet­te tâche, d’i­ci la fin 2022, une ana­ly­se du cad­re juri­di­que pour l’ap­pli­ca­ti­on de l’IA dans le sec­teur finan­cier de cré­er un site web. Le site CNAI ren­force la trans­pa­rence et la con­fi­ance dans ces tech­no­lo­gies grâ­ce à sa base de don­nées struc­tu­rée pour l’ad­mi­ni­stra­ti­on publi­que. En out­re la Sui­s­se par­ti­ci­pe acti­ve­ment aux travaux de l’OCDE, du Con­seil de l’Eu­ro­pe, de l’U­NESCO et de l’U­ni­on inter­na­tio­na­le des télé­com­mu­ni­ca­ti­ons (UIT) visa­nt à éla­bo­rer un cad­re régle­men­tai­re inter­na­tio­nal dans le domaine de l’IA. La Con­fé­dé­ra­ti­on suit de près les dis­cus­sions rela­ti­ves au nou­veau cad­re juri­di­que de l’IA dans l’UE et ana­ly­se les con­sé­quen­ces pos­si­bles pour la Sui­s­se. A cet effet, le DETEC a pré­sen­té au Con­seil fédé­ral 2021 mon­tré dans un rap­portcom­me le mont­re les inter­mé­di­ai­res et les pla­te­for­mes de com­mu­ni­ca­ti­on basés sur l’IA sur la com­mu­ni­ca­ti­on publi­que en Sui­s­se et la for­ma­ti­on de l’o­pi­ni­on de la popu­la­ti­on sui­s­se auront des réper­cus­sions. Le DETEC doit en out­re com­mu­ni­quer au Con­seil fédé­ral, d’i­ci fin 2022, dans quel­le mesu­re les Pla­te­for­mes de com­mu­ni­ca­ti­on régle­men­tées dev­rai­ent être mis en place. Le Con­seil fédé­ral a char­gé le Dépar­te­ment fédé­ral des affai­res étran­gè­res (DFAE) d’é­la­bo­rer une Rap­port sur les travaux rela­tifs au cad­re régle­men­tai­re inter­na­tio­nal dans le domaine de l’IA et les pos­si­bi­li­tés pour la Sui­s­se d’y par­ti­ci­per acti­ve­ment. Sur la néces­si­té d’u­ne com­mis­si­on natio­na­le d’é­thi­que le Con­seil fédé­ral a déjà annon­cé en mai 2021, dans le cad­re de sa répon­se à l’in­ter­pel­la­ti­on 21.3239 Schlat­ter a pris posi­ti­on. Il con­vi­ent de se réfé­rer une nou­vel­le fois à la “Pla­te­for­me Tri­par­ti­te Sui­s­se“qui sert de pla­te­for­me d’é­ch­an­ge ouver­te à tou­tes les par­ties pren­an­tes pour les que­sti­ons d’IA et qui dis­po­se d’un comi­té admi­ni­stra­tif char­gé de coor­don­ner les posi­ti­ons de la Sui­s­se dans les orga­ni­sa­ti­ons et les pro­ce­s­sus inter­na­ti­on­aux. En out­re, dans le cad­re de la Stra­té­gie “Sui­s­se numé­ri­que ain­si que le Stra­té­gie de poli­tique étran­gè­re numé­ri­que 2021 – 2024 éla­bo­rer un aut­re rap­port sur ce sujet. Comp­te tenu des travaux en cours au niveau natio­nal et inter­na­tio­nal pour le cad­re régle­men­tai­re inter­na­tio­nal dans le domaine de l’IA, un man­dat par­le­men­tai­re ne sem­ble pas néces­saire pour le moment.

Le Con­seil fédé­ral pro­po­se de rejeter le postulat.