Moti­on Mass­hardt (25.3210) : Créa­ti­on d’u­ne com­mis­si­on natio­na­le d’é­thi­que pour l’in­tel­li­gence artificielle

Tex­te soumis

Le Con­seil fédé­ral est char­gé de con­vo­quer une com­mis­si­on d’é­thi­que dans le domaine de l’in­tel­li­gence arti­fi­ci­el­le (IA).

Justi­fi­ca­ti­on

Les systè­mes d’IA sont uti­li­sés dans un nombre crois­sant de domain­es, tant dans la vie publi­que que pri­vée. En quel­ques secon­des, des outils acce­s­si­bles au public com­me ChatGPT cré­ent des tex­tes, des images ou des morceaux de musi­que. Les appli­ca­ti­ons d’IA sont uti­li­sées pour l’app­ren­tis­sa­ge, faci­li­tent les pro­ce­s­sus de tra­vail et cré­ent de l’art. En plus de leur grand poten­tiel, elles sont aus­si que­sti­ons éthi­ques est liée : Que signi­fie l’IA pour la for­ma­ti­on de l’o­pi­ni­on poli­tique & la par­ti­ci­pa­ti­on au débat, si la pro­pa­gan­de peut être rédi­gée en quan­ti­té illi­mi­tée pres­que sans effort ? Quel est l’ef­fet des algo­rith­mes des pla­te­for­mes sur la fia­bi­li­té des infor­ma­ti­ons que les gens con­som­ment ? Quel est l’im­pact des appli­ca­ti­ons de l’IA sur le mon­de du tra­vail, l’art et la cul­tu­re, l’é­du­ca­ti­on ? Com­ment peut-on évi­ter les dis­cri­mi­na­ti­ons lorsque l’IA est uti­li­sée, par exemp­le, dans les pro­ce­s­sus de recru­tement ? Com­ment peut-on s’op­po­ser aux décis­i­ons pri­ses par les systè­mes d’IA ? Quels sont les pro­ce­s­sus néces­saires pour garan­tir la responsa­bi­li­té et l’ob­li­ga­ti­on de rend­re des comp­tes ? Jus­qu’à quel point les appli­ca­ti­ons d’IA doi­vent-elles être uti­li­sées pour la sur­veil­lan­ce ? Et quel­les rest­ric­tions des droits fon­da­men­taux et des droits de la per­son­na­li­té accep­tons-nous pour cela ? Quel­les sont les per­son­nes et les orga­ni­sa­ti­ons qui cré­ent, déter­mi­nent et con­trô­lent les systè­mes d’IA ?

Il faut des con­di­ti­ons cad­res pour s’assurer que l’IA pro­fi­te réel­le­ment aux indi­vi­dus et à la socié­té. En Alle­ma­gne, le Con­seil d’é­thi­que 2023 a émis des recom­man­da­ti­ons importan­tes. Il a souli­g­né que pour l’éva­lua­ti­on éthi­que de l’IA, il ne fallait pas seu­le­ment com­prend­re la tech­no­lo­gie, mais aus­si les inter­ac­tions ent­re l’hom­me et la tech­ni­que ain­si que les effets soci­aux. Cer­tai­nes uni­ver­si­tés dis­po­sent déjà de leurs pro­pres insti­tuts d’é­thi­que de l’IA, par exemp­le l’uni­ver­si­té tech­ni­que de Munich et l’uni­ver­si­té d’Oxford.

Nous avons la Com­mis­si­on natio­na­le d’é­thi­que dans le domaine de la méde­ci­ne humaine (CNE) ain­si que la Com­mis­si­on d’é­thi­que pour la bio­tech­no­lo­gie dans le domaine non humain. Il est temps de cré­er une troi­siè­me com­mis­si­on d’é­thi­que pour les défis liés à l’IA, son déve­lo­p­pe­ment et son uti­li­sa­ti­on. Com­me la CNE, il s’a­gi­rait d’u­ne être un orga­ne indé­pen­dant char­gé d’ana­ly­ser les que­sti­ons éthi­ques et débat­tu­es au regard des tra­di­ti­ons démo­cra­ti­ques de la Sui­s­se, de ses liber­tés civi­les & de ses droits soci­aux fon­da­men­taux. La com­mis­si­on con­seil­le la poli­tique, mais n’an­ti­ci­pe pas les décis­i­ons du législateur.

Avis du Con­seil fédé­ral du 21.5.25

Le Con­seil fédé­ral est con­sci­ent que le déve­lo­p­pe­ment de l’in­tel­li­gence arti­fi­ci­el­le (IA) pose de nou­veaux défis, notam­ment sur les plans juri­di­que, socié­tal et éthi­que. L’ad­mi­ni­stra­ti­on fédé­ra­le s’est déjà pen­chée sur les que­sti­ons éthi­ques lors de ses pre­miers travaux dans le domaine de l’IA, notam­ment dans le rap­port sur les défis de l’IA de 2019 et dans les lignes direc­tri­ces “Intel­li­gence arti­fi­ci­el­le” pour la Con­fé­dé­ra­ti­on de 2020 (dis­po­ni­bles sous https://www.sbfi.admin.ch > Poli­tique FRI > Poli­tique fédé­ra­le de la for­ma­ti­on, de la recher­che et de l’in­no­va­ti­on 2025 – 2028 > Thè­mes trans­ver­saux dans le domaine FRI > Numé­ri­sa­ti­on dans le domaine FRI > Intel­li­gence arti­fi­ci­el­le). Au niveau inter­na­tio­nal, les enjeux éthi­ques sont éga­le­ment au cœur des réfle­xi­ons sur la gou­ver­nan­ce de l’IA. Ain­si, le 23 novembre 2021, tous les États mem­bres de l’U­NESCO, dont la Sui­s­se fait par­tie, ont adop­té une recom­man­da­ti­on sur l’é­thi­que de l’IA. De plus, les négo­cia­ti­ons en vue de l’é­la­bo­ra­ti­on de la Con­ven­ti­on du Con­seil de l’Eu­ro­pe sur l’in­tel­li­gence arti­fi­ci­el­le et les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit ont pris en comp­te de nombreux instru­ments inter­na­ti­on­aux exi­stants con­cer­nant l’IA, dont ceux trai­tant des que­sti­ons éthi­ques (voir le rap­port expli­ca­tif de la Con­ven­ti­on sur l’IA, ch. 7, dis­po­ni­ble sous https://www.coe.int > Droits humains > Intel­li­gence arti­fi­ci­el­le et droits humains > Con­ven­ti­on-cad­re).

Le 12 février 2025, le Con­seil fédé­ral a pris une décis­i­on de prin­ci­pe con­cer­nant la régle­men­ta­ti­on de l’IA en Sui­s­se. Il sou­hai­te que Rati­fier la Con­ven­ti­on sur l’IA du Con­seil de l’Eu­ro­pe et a char­gé le DFJP de le fai­re, un pro­jet de con­sul­ta­ti­on d’i­ci fin 2026 pour sa mise en œuvre dans le droit sui­s­se (voir le com­mu­ni­qué de pres­se sous https://news.admin.ch > Com­mu­ni­qués de pres­se du Con­seil fédé­ral > 12 février 2025 – Régle­men­ta­ti­on de l’IA : le Con­seil fédé­ral veut rati­fier la con­ven­ti­on du Con­seil de l’Eu­ro­pe). L’a­vant-pro­jet de loi abor­de­ra notam­ment les défis liés à la trans­pa­rence, à la pro­tec­tion des don­nées, à la non-dis­cri­mi­na­ti­on et à la sur­veil­lan­ce. La Con­ven­ti­on laisse aux Etats par­ties une mar­ge de manœu­vre dans le choix des mesu­res à prend­re. L’é­ven­tu­el­le créa­ti­on d’u­ne com­mis­si­on d’é­thi­que dans le domaine de l’IA pour­ra être exami­née dans le cad­re de ces travaux, qui n’en sont qu’à leurs débuts. Il n’est pas enco­re pos­si­ble de dire quel­les mesu­res con­crè­tes seront pri­ses à l’heu­re actuelle.