Ven­te à emporter (AI)
  • Le Con­seil fédé­ral exami­ne les bases juri­di­ques exi­stan­tes et obser­ve les ris­ques d’IA ; si la pro­tec­tion est insuf­fi­san­te, il prend des mesu­res sup­p­lé­men­tai­res pour pro­té­ger cont­re la discrimination.
  • L’é­thi­que numé­ri­que est encou­ra­gée par des stra­té­gies natio­na­les, des PNR77 et des enga­ge­ments inter­na­ti­on­aux ; la diver­si­té dans les orga­nes fédé­raux est assu­rée par des valeurs cibles et des directives.

Inter­pel­la­ti­on Graf-Lit­scher (19.4462) : Ethi­que numé­ri­que – Pré­ven­ti­on de la dis­cri­mi­na­ti­on en matiè­re d’in­tel­li­gence artificielle

Tex­te soumis

1. com­ment le Con­seil fédé­ral s’assu­re-t-il que les dis­tor­si­ons socia­les (Biais)/Discriminations en matiè­re d’in­tel­li­gence arti­fi­ci­el­le (IA) ?

2. sous quel­le for­me le Con­seil fédé­ral s’en­ga­ge-t-il avec les les aspects éthi­ques de la numé­ri­sa­ti­on (éthi­que numérique) ?

3. qui s’assu­re, au niveau inter­dé­par­te­men­tal, que les orga­nes insti­tués par le Con­seil fédé­ral une com­po­si­ti­on suf­fi­sam­ment variée sont ?

Justi­fi­ca­ti­on

L’in­tel­li­gence arti­fi­ci­el­le (IA) a déjà don­né lieu à de nombreu­ses appli­ca­ti­ons sen­sa­ti­on­nel­les, par exemp­le dans la recon­nais­sance d’i­mages, le dia­gno­stic médi­cal, la tra­duc­tion lin­gu­istique ou la mobi­li­té. Le Con­seil fédé­ral a lan­cé un pro­jet de recher­che sous la direc­tion du Dépar­te­ment fédé­ral de l’é­co­no­mie, de la for­ma­ti­on et de la recher­che (DEFR) rap­port inter­dé­par­te­men­tal rédi­gé lors de sa réuni­on du 13 décembre 2019. Sur la base de ce rap­port, il con­vi­ent à pré­sent ori­en­ta­ti­ons stra­té­giques afin que la Sui­s­se pui­s­se con­tin­uer à s’é­ta­b­lir com­me l’un des prin­ci­paux sites inno­vants de recher­che et de déve­lo­p­pe­ment dans le domaine de l’IA. Par­al­lè­le­ment, il con­vi­ent de recon­naît­re les ris­ques liés à l’ap­pli­ca­ti­on de l’in­tel­li­gence artificielle.

Avis du Con­seil fédéral

1. le rap­port “Défis de l’in­tel­li­gence arti­fi­ci­el­le” du grou­pe de tra­vail inter­dé­par­te­men­tal “Intel­li­gence arti­fi­ci­el­le” du 13.12.2019, com­man­dé par le Con­seil fédé­ral, abor­de les défis soci­aux et éthi­ques posés par l’ap­pli­ca­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA). Le rap­port con­sta­te que le le cad­re juri­di­que exi­stant est en prin­ci­pe appli­ca­ble aux dis­cri­mi­na­ti­ons pou­vant résul­ter des systè­mes d’IA (p. ex. loi sur l’é­ga­li­té [LEg ; RS 151.1]). En out­re, le pro­jet de révi­si­on de la loi sur la pro­tec­tion des don­nées pré­voit, en vue de Décis­i­ons indi­vi­du­el­les auto­ma­ti­sées basées sur l’IA pré­voit dif­fé­ren­tes obli­ga­ti­ons pour la per­son­ne pri­vée ou l’or­ga­ne fédé­ral responsable (voir FF 2017 7193).

Néan­mo­ins, les appli­ca­ti­ons futures de l’IA peu­vent avoir de nou­vel­les impli­ca­ti­ons juri­di­ques. Le Con­seil fédé­ral suit cet­te évo­lu­ti­on de près. S’il devait arri­ver à la con­clu­si­on que les bases juri­di­ques actu­el­les ne suf­fi­sent pas à fai­re face de maniè­re satis­fais­an­te à de nou­veaux ris­ques, il pren­dra les mesu­res nécessaires.

2. la poli­tique numé­ri­que de la Con­fé­dé­ra­ti­on place l’êt­re humain au cent­re d’u­ne socié­té de l’in­for­ma­ti­on et du savoir démo­cra­tique et inclu­si­ve. Les prin­cipes ancrés dans la stra­té­gie géné­ra­le du Con­seil fédé­ral “Sui­s­se numé­ri­que” doi­vent être mis en œuvre dans tous les domain­es de l’ad­mi­ni­stra­ti­on fédé­ra­le (voir www.digitaldialog.swiss). Dans le cad­re des poli­ti­ques sec­to­ri­el­les, l’u­ne des tâches cen­tra­les de la Con­fé­dé­ra­ti­on est de prend­re en comp­te les aspects éthi­ques et, si néces­saire, de mener un dia­lo­gue social sur les défis éthiques.

En lan­çant le Pro­gram­me natio­nal de recher­che sur la “Trans­for­ma­ti­on numé­ri­que” (PNR 77), le Con­seil fédé­ral sou­hai­te que les rela­ti­ons de cau­se à effet ain­si que les effets con­crets de la trans­for­ma­ti­on numé­ri­que en Sui­s­se soi­ent étu­diés. Les trois prio­ri­tés du pro­gram­me sont (1) l’é­du­ca­ti­on et l’app­ren­tis­sa­ge ; (2) l’é­thi­que, la fia­bi­li­té et la gou­ver­nan­ce ain­si que (3) l’é­co­no­mie et le mar­ché du tra­vail (cf. www.nfp77.ch). Dans le con­tex­te inter­na­tio­nal, la Sui­s­se s’en­ga­ge pour que des règles de con­duite éthi­ques se déve­lo­p­pent et soi­ent respec­tées dans le mon­de numé­ri­que. Pour ce fai­re, la Sui­s­se s’en­ga­ge acti­ve­ment dans dif­fé­ren­tes orga­ni­sa­ti­ons et pro­ce­s­sus inter­na­ti­on­aux (par ex. au sein du Con­seil de l’Eu­ro­pe, de l’OCDE, de l’U­NESCO ain­si qu’en tant qu’hô­te du “AI for Good Glo­bal Summit”).

3. le Con­seil fédé­ral s’ef­force de garan­tir une repré­sen­ta­ti­on appro­priée des régions lin­gu­isti­ques et des sexes au sein de l’ad­mi­ni­stra­ti­on fédé­ra­le. Il a fixé des valeurs cibles et des indi­ca­teurs à cet effet et a pris des mesu­res cor­re­spond­an­tes dans la stra­té­gie con­cer­nant le per­son­nel de l’ad­mi­ni­stra­ti­on fédé­ra­le 2016 – 2019. Cel­les-ci doi­vent éga­le­ment être pour­suivies dans la nou­vel­le stra­té­gie du per­son­nel de l’ad­mi­ni­stra­ti­on fédé­ra­le 2020 – 2023. Il s’a­git notam­ment d’aug­men­ter la pro­por­ti­on de femmes dans les clas­ses de salai­re des cad­res. Cela dev­rait avoir un effet posi­tif sur la pro­por­ti­on de femmes dans les orga­nes inter­nes de la Con­fé­dé­ra­ti­on et le Con­seil fédé­ral con­tin­uera d’ob­ser­ver cet­te évo­lu­ti­on. En out­re, une com­po­si­ti­on équi­li­brée sur le plan tech­ni­que est éga­le­ment importan­te. Dans l’or­don­nan­ce sur l’or­ga­ni­sa­ti­on du gou­ver­ne­ment et de l’ad­mi­ni­stra­ti­on [OLOGA ; RS. 172.010.1], le Con­seil fédé­ral pré­cise en out­re que les com­mis­si­ons extrapar­le­men­tai­res doi­vent être com­po­sées d’au moins 30 pour cent de femmes (art. 8c) et qu’el­les doi­vent com­porter une repré­sen­ta­ti­on équi­ta­ble des com­mun­au­tés lin­gu­isti­ques (art. 8cbis).