Ven­te à emporter (AI)
  • L’IA peut ren­forcer les iné­ga­li­tés exi­stan­tes et ent­raî­ne une dis­cri­mi­na­ti­on fon­dée sur le sexe dans des domain­es tels que le recru­tement, l’oc­troi de cré­dits et les médi­as sociaux.
  • Les algo­rith­mes fonc­tion­nent sou­vent de maniè­re opaque, com­me des “boîtes noi­res”, rendant la tra­ça­bi­li­té dif­fi­ci­le et ren­for­çant les pré­ju­gés par des effets de rétroaction.
  • La con­ven­ti­on du Con­seil de l’Eu­ro­pe cou­vre l’E­tat et le sec­teur pri­vé, mais la Sui­s­se y voit une mar­ge de manœu­vre ; un pro­jet de loi d’i­ci 2026 doit rég­ler la trans­pa­rence, la pro­tec­tion des don­nées, la non-dis­cri­mi­na­ti­on et la surveillance.
  • Le Con­seil fédé­ral recon­naît la néces­si­té d’u­ne régle­men­ta­ti­on et annon­ce un pro­jet de légis­la­ti­on portant spé­ci­fi­quement sur les ris­ques de dis­cri­mi­na­ti­on dans le sec­teur privé.

Inter­pel­la­ti­on Ars­lan (25.3066) : Dis­cri­mi­na­ti­on fon­dée sur le gen­re par les algo­rith­mes et l’IA. Pro­tec­tion cont­re la dis­cri­mi­na­ti­on algo­rith­mi­que dans le sec­teur privé

Tex­te soumis

L’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA) peut ren­forcer les iné­ga­li­tés socia­les exi­stan­tes. Des exemp­les inter­na­ti­on­aux mont­rent que les décis­i­ons basées sur l’IA peu­vent frap­per dure­ment les grou­pes socia­le­ment et éco­no­mi­quement défa­vo­ri­sés. En Sui­s­se aus­si les algo­rith­mes influen­cent de plus en plus des domain­es importants de la vieIls éva­lu­ent les can­di­da­tures, ana­ly­sent la sol­va­bi­li­té et recom­man­dent des con­te­nus sur les médi­as soci­aux. Des étu­des mont­rent que les humains peu­vent être désa­van­ta­gés par la dis­cri­mi­na­ti­on algo­rith­mi­que. Les systè­mes d’IA peu­vent par exemp­le pri­vilé­gier les hom­mes dans le pro­ce­s­sus de recru­tement, et Les femmes peu­vent obte­nir de moins bon­nes con­di­ti­ons de cré­ditbien que leur situa­ti­on finan­ciè­re soit com­pa­ra­ble. L’IA géné­ra­ti­ve ren­force en out­re les sté­ré­o­ty­pes sexi­stes.

Les systè­mes d’IA sont sou­vent uti­li­sés à l’in­su des per­son­nes con­cer­nées et opè­rent sou­vent dans des “boîtes noi­res” non trans­pa­ren­tes, ce qui rend dif­fi­ci­le pour les per­son­nes con­cer­nées de com­prend­re les désa­van­ta­ges. Les effets de rétroac­tion peu­vent en out­re ren­forcer les pré­ju­gés exi­stants. Dans sa décis­i­on de prin­ci­pe, le Con­seil fédé­ral recon­naît la néces­si­té d’u­ne régle­men­ta­ti­on et envi­sa­ge de rati­fier la Con­ven­ti­on sur l’IA du Con­seil de l’Eu­ro­pe. Cel­le-ci se con­cent­re tou­te­fois sur les acteurs éta­ti­ques et ne tient pas comp­te des ris­ques dans le sec­teur pri­vé. En l’ab­sence d’ad­ap­t­ati­ons léga­les clai­res, il exi­ste un vide en matiè­re de pro­tec­tion, car il n’e­xi­ste pas en Sui­s­se de loi géné­ra­le anti-dis­cri­mi­na­ti­on pour les acteurs pri­vés. Les défis de la dis­cri­mi­na­ti­on algo­rith­mi­que, tels que les effets d’é­chel­le ou les dis­tor­si­ons dans les don­nées d’en­traî­ne­ment, néces­si­tent des mesu­res ciblées.

1. com­ment le Con­seil fédé­ral entend-il s’at­ta­quer à ces faiblesses ?

2. les La Con­ven­ti­on sur les IA du Con­seil de l’Eu­ro­pe se réfè­re en pre­mier lieu aux acteurs éta­ti­ques. Com­ment le CF entend-il pro­té­ger la popu­la­ti­on cont­re la dis­cri­mi­na­ti­onCom­ment les systè­mes d’IA seront-ils uti­li­sés par les acteurs privés ?

3. des cas con­crets mont­rent que les femmes, ent­re aut­res, peu­vent subir des con­sé­quen­ces dis­cri­mi­na­toires lors de l’uti­li­sa­ti­on de systè­mes d’IA, par exemp­le dans le cad­re du recru­tement, de l’ex­amen de la sol­va­bi­li­té, de l’IA géné­ra­ti­ve ou des médi­as soci­aux. Com­ment le CE peut-il rem­plir son devoir de pro­tec­tion cont­re la dis­cri­mi­na­ti­on dans de tels cas dans le sec­teur privé ?

4. com­ment le CF entend-il s’assurer que les systè­mes de recru­tement basés sur l’IA garan­tis­sent l’é­ga­li­té des chan­ces et ne désa­vant­agent pas sys­té­ma­ti­quement les can­di­da­tures de femmes ou d’aut­res grou­pes discriminés ?

Avis du Con­seil fédé­ral du 14.5.2025

Le Con­seil fédé­ral répond aux que­sti­ons posées dans leur ensem­ble. Il est con­sci­ent que l’uti­li­sa­ti­on crois­s­an­te de systè­mes d’in­tel­li­gence arti­fi­ci­el­le com­por­te cer­ta­ins ris­ques, notam­ment en ce qui con­cer­ne le droit à l’é­ga­li­té de trai­te­ment et à la non-dis­cri­mi­na­ti­on, y com­pris dans le sec­teur pri­vé (voir notam­ment la répon­se à la Inter­pel­la­ti­on Mar­ti Min Li 23.4133 Dis­cri­mi­na­ti­on algo­rith­mi­que. La pro­tec­tion léga­le cont­re la dis­cri­mi­na­ti­on est-elle suffisante ?).

La con­cep­ti­on de l’IA doit tenir comp­te du ris­que de ren­force­ment et de sys­té­ma­tisa­ti­on des dis­cri­mi­na­ti­ons, notam­ment à l’é­gard des femmes et des mino­ri­tés. En effet, les algo­rith­mes sont ent­raî­nés à par­tir de don­nées qui reflè­tent les pré­ju­gés de la socié­té et ten­dent à les repro­dui­re. L’ap­pa­ri­ti­on de biais et leurs con­sé­quen­ces sont extrê­me­ment com­ple­xes, rai­son pour laquel­le il con­vi­ent d’ac­cor­der une atten­ti­on par­ti­cu­liè­re à l’en­sem­ble du cycle de vie de l’IA. D’aut­re part, l’IA pour­rait par exemp­le aus­si faci­li­ter la détec­tion des biais de sélec­tion dans le pro­ce­s­sus de recrutement.

La Con­ven­ti­on du Con­seil de l’Eu­ro­pe sur l’in­tel­li­gence arti­fi­ci­el­le et les droits de l’hom­me, la démo­cra­tie et l’É­tat de droit s’ap­pli­que aux sec­teurs public et pri­vé. Dans sec­teur pri­vé, les États dis­po­sent d’u­ne plus gran­de mar­ge de manœu­vre. en ce qui con­cer­ne l’é­ten­due et l’in­ten­si­té des mesu­res à prend­re pour att­eind­re les objec­tifs de la Con­ven­ti­on. Le Con­seil fédé­ral a uti­li­sé cet­te mar­ge de manœu­vre et s’est enga­gé dans sa décis­i­on du 12 février 2025 (voir le com­mu­ni­qué de pres­se à ce sujet : https://www.bj.admin.ch/bj/de/home/aktuell/mm.msg-id-104110.html) s’est pro­non­cé en faveur d’u­ne légis­la­ti­on prin­ci­pa­le­ment axée sur le sec­teur public, mais peut éga­le­ment inclu­re le sec­teur pri­véLe pro­jet de loi sur la pro­tec­tion des don­nées est en cours d’é­la­bo­ra­ti­on. Le pro­jet légis­la­tif que le DFJP éla­bo­rera d’i­ci 2026 sur man­dat du Con­seil fédé­ral dev­ra donc notam­ment por­ter sur la trans­pa­rence, la pro­tec­tion des don­nées, la non-dis­cri­mi­na­ti­on et la surveillance.

Dans le cad­re de ses travaux, le Con­seil fédé­ral éla­bo­rera un accor­der une atten­ti­on par­ti­cu­liè­re aux défis liés à la dis­cri­mi­na­ti­on. Il n’est tou­te­fois pas enco­re pos­si­ble de dire exac­te­ment com­ment il le fera à l’heu­re actuelle.