- Le rapport demande une clarification des besoins réglementaires en matière de systèmes décisionnels automatisés (ADMS) et d’IA, notamment la transparence, l’éthique, la non-discrimination.
- Des incertitudes subsistent quant à la responsabilité des prévisions, des recommandations et des décisions prises par ADMS.
- Le Conseil fédéral ne voit actuellement pas la nécessité d’un nouveau cadre législatif général ; des adaptations ponctuelles et les dispositions existantes en matière de protection des données suffisent généralement.
- Le Conseil fédéral renvoie aux initiatives nationales et internationales en cours (CNAI, plateformes, monitoring de l’UE) et rejette le postulat.
Texte soumis
Le Conseil fédéral est chargé de présenter un rapport montrant où se situent la nécessité éventuelle de réglementer les systèmes décisionnels automatisés (ADMS) ou l’intelligence artificielle de l’entreprise. L’accent est mis sur la garantie de la transparence, le respect des directives éthiques et la prévention de la discrimination ou de la manipulation. Un autre aspect concerne les questions d’attribution des responsabilités et de responsabilité, où des clarifications juridiques sont nécessaires en relation avec les prévisions, les recommandations ou les décisions prises par ADMS. Il s’agit de déterminer si les bases légales et les instruments sont suffisants pour faire face à ces risques. Dans ce contexte, il s’agit également de Création d’une commission nationale d’éthique seront examinés. Par ailleurs, le rapport doit montrer où ces systèmes déjà utilisé dans le service public viennent (p. ex. poursuites pénales) et où, le cas échéant, les bases juridiques font défaut.
Justification
Les systèmes décisionnels automatisés ou l’intelligence artificielle sont utilisés dans un nombre croissant de domaines, tant dans le secteur privé que dans le secteur public. Cette technologie comporte également certains risques. D’une part, certains exemples montrent que des décisions peuvent être prises en raison de distorsions dans les modèles ou les données d’analyse ou en raison de circonstances sociales ou économiques. discriminatoire peuvent être (par exemple Amazon et le système de candidature) ou faux ou dangereux (outils de diagnostic IBM Watson pour l’oncologie). De même, ils peuvent être associés à de graves Restrictions aux droits fondamentaux ou un effet dissuasif sur l’exercice des droits fondamentaux, par exemple dans le domaine de la police préventive. Même les systèmes considérés par la Commission européenne comme présentant un risque moindre peuvent être hautement problématiques, comme les “deep fakes”.
Dans le secteur privé comme dans le secteur public, il est souvent difficile pour le public et les personnes concernées de savoir ce qui se passe. souvent non identifiableIl est difficile de savoir où les ADMS sont utilisés et quand ils sont concernés. D’autre part, il n’est souvent pas clair dans quel but et par qui un système est utilisé et comment il fonctionne. C’est à cela que le rapport doit remédier. Il doit en outre montrer comment ces Transparence (par exemple, en imposant des obligations de renseignement et d’information aux personnes concernées ou en créant un registre public contenant des informations de base sur les SGAD utilisés dans le secteur public). La nécessité d’agir a également été soulignée dans le Prise de position “Un cadre juridique pour l’intelligence artificielle” de la Digital Society Initiative de l’université de Zurich est maintenue.
Avis du Conseil fédéral du 16.02.2022
L’intelligence artificielle (IA) soulève de nombreuses questions pour les sites économiques innovants et tournés vers l’avenir, qui agissent selon les principes de l’État de droit. Le Conseil fédéral s’est déjà penché sur la question en 2019 lors d’une Bilan de la situation avec ce sujet quand les le groupe de travail interdépartemental sur les IC a publié un rapport à ce sujet. Il a également adopté en 2020 Lignes directrices pour l’utilisation de l’IA dans l’administration fédérale et a chargé le Département de l’environnement, des transports, de l’énergie et de la communication (DETEC) de vérifier régulièrement son application et son développement en collaboration avec les offices concernés. En 2021, le Département fédéral de l’intérieur (DFI) a reçu le mandat d’élaborer d’ici le printemps 2022 un Réseau de compétences en intelligence artificielle (CNAI) à mettre en place. L’analyse des besoins et des opportunités se recoupe donc largement avec la prise de position de la Digital Society Initiative de l’Université de Zurich mentionnée dans le postulat.
En ce qui concerne les dispositions légales, le Conseil fédéral est arrivé à la conclusion, sur la base du rapport mentionné, que pas de nouveau cadre légal général nécessaire pour le moment est. L’IA peut soulever des questions dans différents domaines (p. ex. diagnostic médical, agriculture, tribunaux), mais celles-ci sont couvertes par les bases juridiques en vigueur et peuvent généralement trouver une réponse satisfaisante. Si ce n’est pas le cas, des solutions ponctuelles doivent être trouvées. Dans certains domaines, cela peut conduire à la révision d’une loi ou d’une ordonnance. Il convient ici de se référer à l’exemple présenté dans le Année 2020 adoptée par le nouvelle loi sur la protection des données qui prévoit déjà plusieurs dispositions visant à améliorer la transparence dans ce domaine, tant dans le secteur privé que dans le secteur public. L’article 21 introduit une obligation d’information pour les décisions individuelles automatisées, la personne concernée pouvant demander que cette décision soit réexaminée par une personne physique. Les personnes qui font valoir leur droit d’accès sont informées de l’existence d’une décision individuelle automatisée ainsi que de la logique sur laquelle repose la décision (art. 25, al. 2, let. f). En ce qui concerne le traitement de données personnelles par des organes fédéraux, une base dans une loi au sens formel est nécessaire si la nature et les modalités du traitement des données (dont fait partie l’utilisation d’algorithmes) peuvent entraîner une atteinte grave aux droits fondamentaux de la personne concernée (art. 34, al. 2, let. c). Le Conseil fédéral a chargé le Département fédéral des finances (DFF) de cette tâche, d’ici la fin 2022, une analyse du cadre juridique pour l’application de l’IA dans le secteur financier de créer un site web. Le site CNAI renforce la transparence et la confiance dans ces technologies grâce à sa base de données structurée pour l’administration publique. En outre la Suisse participe activement aux travaux de l’OCDE, du Conseil de l’Europe, de l’UNESCO et de l’Union internationale des télécommunications (UIT) visant à élaborer un cadre réglementaire international dans le domaine de l’IA. La Confédération suit de près les discussions relatives au nouveau cadre juridique de l’IA dans l’UE et analyse les conséquences possibles pour la Suisse. A cet effet, le DETEC a présenté au Conseil fédéral 2021 montré dans un rapportcomme le montre les intermédiaires et les plateformes de communication basés sur l’IA sur la communication publique en Suisse et la formation de l’opinion de la population suisse auront des répercussions. Le DETEC doit en outre communiquer au Conseil fédéral, d’ici fin 2022, dans quelle mesure les Plateformes de communication réglementées devraient être mis en place. Le Conseil fédéral a chargé le Département fédéral des affaires étrangères (DFAE) d’élaborer une Rapport sur les travaux relatifs au cadre réglementaire international dans le domaine de l’IA et les possibilités pour la Suisse d’y participer activement. Sur la nécessité d’une commission nationale d’éthique le Conseil fédéral a déjà annoncé en mai 2021, dans le cadre de sa réponse à l’interpellation 21.3239 Schlatter a pris position. Il convient de se référer une nouvelle fois à la “Plateforme Tripartite Suisse“qui sert de plateforme d’échange ouverte à toutes les parties prenantes pour les questions d’IA et qui dispose d’un comité administratif chargé de coordonner les positions de la Suisse dans les organisations et les processus internationaux. En outre, dans le cadre de la Stratégie “Suisse numérique ainsi que le Stratégie de politique étrangère numérique 2021 – 2024 élaborer un autre rapport sur ce sujet. Compte tenu des travaux en cours au niveau national et international pour le cadre réglementaire international dans le domaine de l’IA, un mandat parlementaire ne semble pas nécessaire pour le moment.
Le Conseil fédéral propose de rejeter le postulat.