- L’IA peut renforcer les inégalités existantes et entraîne une discrimination fondée sur le sexe dans des domaines tels que le recrutement, l’octroi de crédits et les médias sociaux.
- Les algorithmes fonctionnent souvent de manière opaque, comme des “boîtes noires”, rendant la traçabilité difficile et renforçant les préjugés par des effets de rétroaction.
- La convention du Conseil de l’Europe couvre l’Etat et le secteur privé, mais la Suisse y voit une marge de manœuvre ; un projet de loi d’ici 2026 doit régler la transparence, la protection des données, la non-discrimination et la surveillance.
- Le Conseil fédéral reconnaît la nécessité d’une réglementation et annonce un projet de législation portant spécifiquement sur les risques de discrimination dans le secteur privé.
Texte soumis
L’utilisation de l’intelligence artificielle (IA) peut renforcer les inégalités sociales existantes. Des exemples internationaux montrent que les décisions basées sur l’IA peuvent frapper durement les groupes socialement et économiquement défavorisés. En Suisse aussi les algorithmes influencent de plus en plus des domaines importants de la vieIls évaluent les candidatures, analysent la solvabilité et recommandent des contenus sur les médias sociaux. Des études montrent que les humains peuvent être désavantagés par la discrimination algorithmique. Les systèmes d’IA peuvent par exemple privilégier les hommes dans le processus de recrutement, et Les femmes peuvent obtenir de moins bonnes conditions de créditbien que leur situation financière soit comparable. L’IA générative renforce en outre les stéréotypes sexistes.
Les systèmes d’IA sont souvent utilisés à l’insu des personnes concernées et opèrent souvent dans des “boîtes noires” non transparentes, ce qui rend difficile pour les personnes concernées de comprendre les désavantages. Les effets de rétroaction peuvent en outre renforcer les préjugés existants. Dans sa décision de principe, le Conseil fédéral reconnaît la nécessité d’une réglementation et envisage de ratifier la Convention sur l’IA du Conseil de l’Europe. Celle-ci se concentre toutefois sur les acteurs étatiques et ne tient pas compte des risques dans le secteur privé. En l’absence d’adaptations légales claires, il existe un vide en matière de protection, car il n’existe pas en Suisse de loi générale anti-discrimination pour les acteurs privés. Les défis de la discrimination algorithmique, tels que les effets d’échelle ou les distorsions dans les données d’entraînement, nécessitent des mesures ciblées.
1. comment le Conseil fédéral entend-il s’attaquer à ces faiblesses ?
2. les La Convention sur les IA du Conseil de l’Europe se réfère en premier lieu aux acteurs étatiques. Comment le CF entend-il protéger la population contre la discriminationComment les systèmes d’IA seront-ils utilisés par les acteurs privés ?
3. des cas concrets montrent que les femmes, entre autres, peuvent subir des conséquences discriminatoires lors de l’utilisation de systèmes d’IA, par exemple dans le cadre du recrutement, de l’examen de la solvabilité, de l’IA générative ou des médias sociaux. Comment le CE peut-il remplir son devoir de protection contre la discrimination dans de tels cas dans le secteur privé ?
4. comment le CF entend-il s’assurer que les systèmes de recrutement basés sur l’IA garantissent l’égalité des chances et ne désavantagent pas systématiquement les candidatures de femmes ou d’autres groupes discriminés ?
Avis du Conseil fédéral du 14.5.2025
Le Conseil fédéral répond aux questions posées dans leur ensemble. Il est conscient que l’utilisation croissante de systèmes d’intelligence artificielle comporte certains risques, notamment en ce qui concerne le droit à l’égalité de traitement et à la non-discrimination, y compris dans le secteur privé (voir notamment la réponse à la Interpellation Marti Min Li 23.4133 Discrimination algorithmique. La protection légale contre la discrimination est-elle suffisante ?).
La conception de l’IA doit tenir compte du risque de renforcement et de systématisation des discriminations, notamment à l’égard des femmes et des minorités. En effet, les algorithmes sont entraînés à partir de données qui reflètent les préjugés de la société et tendent à les reproduire. L’apparition de biais et leurs conséquences sont extrêmement complexes, raison pour laquelle il convient d’accorder une attention particulière à l’ensemble du cycle de vie de l’IA. D’autre part, l’IA pourrait par exemple aussi faciliter la détection des biais de sélection dans le processus de recrutement.
La Convention du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit s’applique aux secteurs public et privé. Dans secteur privé, les États disposent d’une plus grande marge de manœuvre. en ce qui concerne l’étendue et l’intensité des mesures à prendre pour atteindre les objectifs de la Convention. Le Conseil fédéral a utilisé cette marge de manœuvre et s’est engagé dans sa décision du 12 février 2025 (voir le communiqué de presse à ce sujet : https://www.bj.admin.ch/bj/de/home/aktuell/mm.msg-id-104110.html) s’est prononcé en faveur d’une législation principalement axée sur le secteur public, mais peut également inclure le secteur privéLe projet de loi sur la protection des données est en cours d’élaboration. Le projet législatif que le DFJP élaborera d’ici 2026 sur mandat du Conseil fédéral devra donc notamment porter sur la transparence, la protection des données, la non-discrimination et la surveillance.
Dans le cadre de ses travaux, le Conseil fédéral élaborera un accorder une attention particulière aux défis liés à la discrimination. Il n’est toutefois pas encore possible de dire exactement comment il le fera à l’heure actuelle.