Les États membres du Conseil de l’Europe et les autres signataires s’accordent,
Considérant que l’objectif du Conseil de l’Europe est de parvenir à une plus grande unité entre ses membres, fondée en particulier sur le respect des droits de l’homme, de la démocratie et de l’État de droit ;
Reconnaissant la valeur de la promotion de la coopération entre les Parties à la présente Convention et de l’extension de cette coopération à d’autres États qui partagent les mêmes valeurs ;
Conscient de l’accélération des développements scientifiques et technologiques et des profonds changements apportés par les activités du cycle de vie des systèmes d’intelligence artificielle, qui ont le potentiel de promouvoir la prospérité humaine ainsi que le bien-être individuel et social, le développement durable, l’égalité des sexes et l’émancipation de toutes les femmes et de toutes les filles, ainsi que d’autres objectifs et intérêts importants, en améliorant le progrès et l’innovation ;
Reconnaissant que les activités dans le cycle de vie des systèmes d’intelligence artificielle peuvent offrir des opportunités sans précédent pour protéger et promouvoir les droits de l’homme, la démocratie et le respect de la loi ;
Considérant que certaines activités du cycle de vie des systèmes d’intelligence artificielle peuvent porter atteinte à la dignité humaine et à l’autonomie individuelle, aux droits de l’homme, à la démocratie et à l’autorité de la loi ;
Concerté par les risques de discrimination dans les contextes numériques, en particulier ceux impliquant des systèmes d’intelligence artificielle, et leur effet potentiel de créer ou d’aggraver des inégalités, y compris celles vécues par les femmes et les individus en situation de vulnérabilité, en ce qui concerne la jouissance de leurs droits humains et leur participation pleine, égale et effective aux affaires économiques, sociales, culturelles et politiques ;
Concernée par l’utilisation abusive de systèmes d’intelligence artificielle et s’opposant à l’utilisation de tels systèmes à des fins répressives en violation du droit international relatif aux droits de l’homme, y compris par le biais de pratiques de surveillance et de censure arbitraires ou illégales qui érodent la vie privée et l’autonomie individuelle ;
Conscient du fait que les droits de l’homme, la démocratie et la règle de droit sont intrinsèquement entrelacés ;
Convenant de la nécessité d’établir, en priorité, un cadre juridique applicable au niveau mondial établissant des principes généraux communs et des règles régissant les activités au sein du cycle de vie des systèmes d’intelligence artificielle, qui préserve efficacement les valeurs partagées et exploite les avantages de l’intelligence artificielle pour la promotion de ces valeurs d’une manière propice à une innovation responsable ;
Recognising the need to promote digital literacy, knowledge about, and trust in the design, development, use and decommissioning of artificial intelligence systems ;
Reconnaissant le caractère cadre de cette convention, qui peut être complétée par d’autres instruments pour aborder des questions spécifiques liées aux activités dans le cycle de vie des systèmes d’intelligence artificielle ;
Soulignant que la présente Convention est destinée à répondre à des défis spécifiques qui se posent tout au long du cycle de vie des systèmes d’intelligence artificielle et encourage la prise en compte des risques et impacts globaux liés à ces technologies, y compris, mais sans s’y limiter, la santé humaine et l’environnement, ainsi que les aspects socio-économiques, tels que l’emploi et le travail ;
Noting relevant efforts to advance international understanding and co-operation on artificial intelligence by other international and supranational organisations and fora ;
Avoir conscience des instruments internationaux applicables en matière de droits de l’homme, tels que la Déclaration universelle des droits de l’homme de 1948, la Convention pour la protection des droits de l’homme et des libertés fondamentales de 1950 (STE n° 5), la Convention internationale sur les droits civils et politiques de 1966, la Convention internationale sur les droits économiques, sociaux et culturels de 1966, la Charte sociale européenne de 1961 (STE n° 35), ainsi que leurs protocoles respectifs, et la Charte sociale européenne (révisée) de 1996 (STE n° 163) ;
Sensible également à la Convention des Nations Unies relative aux droits de l’enfant de 198a9 et à la Convention des Nations Unies relative aux droits des personnes handicapées de 2006 ;
Conscient également des droits à la vie privée des individus et de la protection des données personnelles, tels qu’ils sont applicables et conférés, par exemple, par la Convention de 1981 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel (STE n° 108) et ses protocoles ;
Affirmant l’engagement des Parties à protéger les droits de l’homme, la démocratie et le respect de la loi, et à promouvoir la fiabilité des systèmes d’intelligence artificielle par le biais de la présente Convention,
Ont convenu de ce qui suit :
Rapport explicatif
6. Le préambule réaffirme l’engagement des parties à protéger les droits de l’homme, la démocratie et l’État de droit et rappelle les instruments juridiques internationaux et les traités du Conseil de l’Europe et des Nations unies qui traitent directement de sujets relevant du champ d’application de la présente convention-cadre.
7. Lors de la négociation et de l’adoption ultérieure de la présente Convention-cadre, les instruments juridiques et politiques internationaux suivants en matière d’intelligence artificielle, en particulier ceux préparés par le Conseil de l’Europe et d’autres organisations et processus internationaux, ont été pris en compte :
a) Déclaration du Comité des Ministres du Conseil de l’Europe sur les capacités de manipulation des processus algorithmiques, adoptée le 13 février 2019 – Decl(13/02/2019)1 ;
b) Recommandation sur l’intelligence artificielle adoptée par le Conseil de l’OCDE le 22 mai 2019 (les “Principes de l’OCDE sur l’intelligence artificielle”) ;
c) Recommandation du Comité des ministres du Conseil de l’Europe aux États membres sur l’impact des systèmes algorithmiques sur les droits de l’homme, adoptée le 8 avril 2020 – CM/Rec(2020)1 ;
d) Résolutions et recommandations de l’Assemblée parlementaire du Conseil de l’Europe, examinant les possibilités et les risques de l’intelligence artificielle pour les droits de l’homme, la démocratie et l’État de droit et approuvant un ensemble de principes éthiques fondamentaux qui devraient être appliqués aux systèmes d’intelligence artificielle ;[2].
e) Recommandation de l’UNESCO sur l’éthique de l’intelligence artificielle adoptée le 23 novembre 2021 ;
f) G7 Hiroshima Process International Guiding Principles for Organisations Developing Advanced AI Systems et Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems (adopted on 30 October 2023) ; et
g) Règlement de l’UE établissant des règles harmonisées en matière d’intelligence artificielle (Artificial Intelligence Act) adopté le [date exacte à insérer en avril 2024].
8. En outre, les négociations ont été inspirées par des éléments des déclarations politiques suivantes :
a) Déclaration des chefs d’État et de gouvernement lors du 4e Sommet du Conseil de l’Europe à Reykjavík les 16 – 17 mai 2023 ;
b) Déclaration des dirigeants du G7 sur le processus d’IA d’Hiroshima du 30 octobre et du 6 décembre 2023 ; et
c) La Déclaration de Bletchley par les pays participant au Sommet sur la sécurité de l’intelligence artificielle, 1 – 2 novembre 2023.
9. Le préambule énonce l’objectif fondamental de la Convention-cadre – faire en sorte que le potentiel des technologies de l’intelligence artificielle à promouvoir la prospérité humaine, le bien-être individuel et social et à rendre notre monde plus productif, innovant et sûr, soit exploité d’une manière responsable qui respecte, protège et satisfasse les valeurs partagées par les Parties et soit respectueuse des droits de l’homme, de la démocratie et de l’État de droit.
10. Les auteurs de la proposition souhaitaient souligner que les systèmes d’intelligence artificielle offrent des possibilités sans précédent de protéger et de promouvoir les droits de l’homme, la démocratie et le respect de la loi. En même temps, ils souhaitaient également reconnaître qu’il existe de sérieux risques et périls découlant de certaines activités dans le cycle de vie de l’intelligence artificielle, telles que, par exemple, la discrimination dans une variété de contextes, l’inégalité entre les sexes, l’affaiblissement des processus démocratiques, l’atteinte à la dignité humaine ou à l’autonomie individuelle, ou l’utilisation abusive des systèmes d’intelligence artificielle par certains États à des fins répressives, en violation du droit international des droits de l’homme. Les auteurs de la proposition souhaitaient également attirer l’attention sur la dignité humaine et l’autonomie individuelle en tant que valeurs et principes fondamentaux qui sont essentiels à la pleine réalisation des droits de l’homme, de la démocratie et de l’État de droit et qui peuvent également être affectés de manière négative par certaines activités du cycle de vie des systèmes d’intelligence artificielle. Les auteurs de la proposition souhaitaient souligner que, lorsqu’ils se réfèrent aux personnes qui peuvent être affectées par les systèmes d’intelligence artificielle créant ou aggravant des inégalités, celles-ci incluent les personnes discriminées en fonction de leur “race” [3] ou de leur ethnicité, y compris les personnes autochtones. Ils souhaitaient également souligner la nécessité d’éviter la discrimination fondée sur le sexe, les préjugés ou d’autres obstacles systémiques, conformément aux obligations internationales et en accord avec les déclarations pertinentes des Nations unies. En outre, les systèmes d’intelligence artificielle dignes de confiance intégreront des principes tels que ceux énoncés au chapitre III de la Convention-cadre, qui devraient s’appliquer aux activités du cycle de vie des systèmes d’intelligence artificielle. Enfin, les auteurs de la proposition ont pleinement conscience que l’utilisation croissante des systèmes d’intelligence artificielle, en raison de leur nature transformatrice pour les sociétés, pose de nouveaux défis aux droits de l’homme, à la démocratie et à l’État de droit, qui ne sont pas encore prévisibles au moment de la rédaction de la proposition.
11. Par conséquent, le préambule pose les jalons d’une série d’obligations juridiquement contraignantes contenues dans la convention-cadre, qui visent à garantir que les activités du cycle de vie des systèmes d’intelligence artificielle susceptibles d’interférer avec le respect des droits de l’homme, le fonctionnement de la démocratie ou le respect de la loi dans les secteurs public et privé soient pleinement conformes à cette convention-cadre.
1. Les dispositions de la présente Convention visent à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle soient pleinement conformes aux droits de l’homme, à la démocratie et à la primauté du droit.
2. Chaque Partie adopte ou maintient des mesures législatives, administratives ou autres appropriées pour donner effet aux dispositions de la présente Convention. Ces mesures doivent être graduées et différenciées selon la gravité et la probabilité d’effets négatifs sur les droits de l’homme, la démocratie et l’État de droit pendant le cycle de vie des systèmes d’intelligence artificielle. Il peut s’agir de mesures spécifiques ou horizontales qui s’appliquent indépendamment du type de technologie utilisé.
3. Afin d’assurer la mise en œuvre effective de ses dispositions par les parties, la présente convention établit un mécanisme de suivi et prévoit une coopération internationale.
Rapport explicatif
Sur l’objet et le but de la Convention-cadre et ses relations avec les régimes et mécanismes existants de protection des droits de l’homme12. Les paragraphes 1 et 2 exposent l’objet et le but de la convention-cadre, qui est de garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle soient pleinement conformes aux droits de l’homme, à la démocratie et à l’État de droit. En même temps, il est important de souligner que la convention-cadre n’a pas pour but de réglementer tous les aspects des activités du cycle de vie des systèmes d’intelligence artificielle, ni les technologies d’intelligence artificielle en tant que telles. Son objet et sa finalité se limitent tous deux aux questions relatives au mandat du Conseil de l’Europe, avec un accent sur les systèmes d’intelligence artificielle qui ont le potentiel d’interférer avec les droits de l’homme, la démocratie et l’État de droit.
13. La Convention-cadre garantit que les obligations existantes de chaque Partie en matière de droits de l’homme, de démocratie et de primauté du droit s’appliquent également aux activités du cycle de vie des systèmes d’intelligence artificielle. En ce sens, la Convention-cadre est alignée sur les systèmes et mécanismes de protection des droits de l’homme applicables de chaque Partie, y compris ses obligations en vertu du droit international et d’autres engagements internationaux, ainsi que sur son droit interne applicable. En conséquence, aucune disposition de la présente Convention-cadre n’est destinée à créer de nouveaux droits de l’homme ou de nouvelles obligations en matière de droits de l’homme, ni à porter atteinte à la portée et au contenu des protections existantes, mais plutôt, en énonçant diverses obligations juridiquement contraignantes contenues dans ses chapitres II à VI, à faciliter la mise en œuvre effective des obligations applicables en matière de droits de l’homme de chaque Partie dans le contexte des nouveaux défis posés par l’intelligence artificielle. En même temps, la Convention-cadre renforce le rôle du droit international relatif aux droits de l’homme et les aspects pertinents des cadres juridiques nationaux en ce qui concerne les activités dans le cycle de vie des systèmes d’intelligence artificielle qui ont le potentiel d’interférer avec les droits de l’homme, la démocratie et l’État de droit.
Concernant les activités dans le cadre du cycle de vie des systèmes d’intelligence artificielle
14. Tout au long de son texte, la Convention-cadre crée diverses obligations en rapport avec les activités du cycle de vie des systèmes d’intelligence artificielle. Cette référence au cycle de vie garantit une approche globale des risques liés à l’intelligence artificielle et de ses effets négatifs sur les droits de l’homme, la démocratie et le respect de la loi, en couvrant toutes les étapes des activités liées aux systèmes d’intelligence artificielle. Appliquer ces obligations à l’ensemble du cycle de vie garantit que la Convention peut couvrir non seulement les risques actuels mais aussi les risques futurs, ce qui est l’un des moyens par lesquels les rédacteurs ont cherché à faire de la Convention-cadre une preuve future face à des développements technologiques rapides et souvent imprévisibles. Il est important de préciser que, tout au long de la Convention-cadre, “au sein” n’est pas utilisé comme un terme technique et n’a pas pour but d’avoir un effet limitatif sur le concept de cycle de vie.
15. Avec cela à l’esprit, et sans donner une liste exhaustive des activités du cycle de vie qui sont spécifiques aux systèmes d’intelligence artificielle, les auteurs visent à couvrir toutes les activités depuis la conception du système d’intelligence artificielle jusqu’à son retrait, quel que soit l’acteur impliqué. Il est du choix délibéré des auteurs de ne pas les spécifier explicitement, car elles peuvent dépendre du type de technologie et d’autres éléments contextuels et évoluer dans le temps, mais en s’inspirant des travaux les plus récents de l’OCDE, au moment de la rédaction, les auteurs donnent des exemples d’activités pertinentes : (1) planification et conception, (2) collecte et traitement des données, (3) développement de systèmes d’intelligence artificielle, y compris la construction de modèles et/ou le réglage fin de modèles existants pour des tâches spécifiques, (4) test, vérification et validation, (5) fourniture/fabrication des systèmes disponibles pour l’utilisation, (6) déploiement, (7) exploitation et surveillance, et (8) retrait. Ces activités se déroulent souvent de manière itérative et ne sont pas nécessairement séquentielles. Elles peuvent également reprendre dès qu’il y a des changements substantiels dans le système ou dans son utilisation prévue. La décision de retirer un système d’intelligence artificielle du service peut être prise à tout moment au cours de la phase d’exploitation et de surveillance.
Concernant la mise en œuvre de la Convention-cadre
16. Le paragraphe 2 de l’article 1er énonce l’approche de la mise en œuvre convenue par les États qui ont négocié la convention-cadre. Cette disposition exige des Parties qu’elles donnent effet aux dispositions de la Convention-cadre, mais prévoit également qu’elles jouissent d’une certaine marge de flexibilité quant à la manière exacte de donner effet aux dispositions de la Convention-cadre, compte tenu de la diversité sous-jacente des systèmes juridiques, des traditions et des pratiques entre les Parties et de l’extrême variété des contextes d’utilisation des systèmes d’intelligence artificielle dans les secteurs public et privé.
17. Afin de tenir compte des règles et mécanismes existants dans le système juridique interne de chaque Partie, le paragraphe 2 de l’article 1er et plusieurs des obligations imposent aux Parties d’ ”adopter ou de maintenir” certaines mesures pour faire face aux risques liés à l’intelligence artificielle. En utilisant “adopter ou maintenir”, les rédacteurs ont voulu offrir aux parties une certaine souplesse pour s’acquitter de leurs obligations en adoptant de nouvelles mesures ou en appliquant des mesures existantes, telles que des législations et des mécanismes qui existaient avant l’entrée en vigueur de la convention-cadre. L’utilisation de ces deux termes reconnaît que, pour les besoins de la mise en œuvre nationale, l’une ou l’autre de ces approches peut être tout aussi suffisante. Le paragraphe 2 de l’article 1er prévoit en outre que ces mesures doivent être “graduées et différenciées selon la gravité et la probabilité de l’apparition d’effets négatifs sur les droits de l’homme, la démocratie et l’État de droit”. Cette disposition indique que les mesures prises en vertu de la convention-cadre doivent être adaptées au niveau de risque posé par un système d’intelligence artificielle dans des sphères, activités et contextes spécifiques, le cas échéant, et que cette tâche incombe aux parties à la convention-cadre de décider comment concilier les intérêts en présence dans chaque sphère, en tenant compte des spécificités des activités du secteur privé, de leur cadre réglementaire national et de leur programme national en matière d’intelligence artificielle, tout en assurant la protection et la promotion des droits de l’homme, de la démocratie et du respect de la loi. Les Parties peuvent également tenir compte des spécificités des activités du secteur public telles que l’application de la loi, les migrations, le contrôle des frontières, l’asile et le système judiciaire.
18. Il est essentiel que, conformément au paragraphe 2 de l’article 1, l’examen des questions mentionnées commence par une évaluation par chaque Partie des risques et des incidences potentielles sur les droits de l’homme, la démocratie et l’État de droit dans un contexte donné, et par l’examen du maintien ou de l’établissement de mesures appropriées pour faire face à ces incidences. Pour comprendre l’impact potentiel des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, les parties devraient prendre en considération le contexte plus large, y compris les asymétries de pouvoir qui pourraient aggraver les inégalités et les impacts sociaux existants. Étant donné le large éventail de secteurs et de cas d’utilisation dans lesquels les systèmes d’intelligence artificielle sont utilisés et pourraient être déployés à l’avenir, tels que la distribution des avantages sociaux, les décisions relatives à la solvabilité des clients potentiels, les processus de recrutement et de rétention du personnel, les procédures de justice pénale, l’immigration, les procédures d’asile et le contrôle des frontières, la police, ainsi que la publicité ciblée et la sélection de contenu algorithmique, certains impacts négatifs pourraient se traduire par des violations des droits de l’homme dans l’ensemble de la société. Ils pourraient aussi potentiellement affecter la justice sociale, altérer les relations et affecter la confiance entre les citoyens et le gouvernement, et affecter l’intégrité des processus démocratiques.
19. Après avoir soigneusement examiné les risques respectifs et d’autres facteurs pertinents, chaque partie devra décider si elle remplira ses obligations en appliquant les dispositions existantes ou en actualisant son cadre réglementaire national et, le cas échéant, comment. Il faut garder à l’esprit qu’en vertu de ses obligations et engagements internationaux respectifs en matière de droits de l’homme, chaque Partie a déjà mis en place divers mécanismes de protection des droits de l’homme et d’arbitrage des conflits, ainsi que des modalités spécifiques d’administration des règles et réglementations pertinentes.
20. Les Parties pourraient donc, par exemple, décider de continuer à utiliser la réglementation existante, de la simplifier, de la clarifier ou de l’améliorer, ou elles pourraient travailler à améliorer son application ou à soutenir la mise à disposition de mesures existantes plus accessibles ou plus disponibles (voir le commentaire relatif aux articles 14 – 15 aux paragraphes 95 à 104 ci-dessous). Les Parties pourraient également envisager l’adoption de mesures nouvelles ou supplémentaires, qui pourraient prendre la forme d’une législation, d’une politique ou d’une réglementation fondée sur des règles, des principes ou des objectifs ; la mise en place de mécanismes et de normes de conformité ; une corégulation et des accords industriels visant à faciliter l’autorégulation ; ou le recours à diverses combinaisons de ce qui précède. Les mesures à adopter ou à maintenir en vertu de la convention-cadre peuvent également consister en des mesures administratives et non juridiquement contraignantes, des orientations interprétatives, des circulaires, des mécanismes et processus internes ou des décisions judiciaires, selon ce que chaque partie juge approprié, conformément à l’ ”approche graduelle et différenciée” décrite à l’article 1er , paragraphe 2. Toute mention d’adoption ou de maintien de “mesures” dans la présente convention-cadre peut également être satisfaite par des mesures administratives appropriées.
21. En outre, pour mettre en œuvre les principes et obligations énoncés dans la Convention-cadre, une Partie peut adopter des mesures spécifiques à l’IA ou maintenir et mettre à jour des mesures dites “horizontales” applicables quel que soit le type de technologie utilisé, comme par exemple la non-discrimination, la protection des données et toute autre législation qui pourrait être utilisée pour mettre en œuvre des principes et obligations spécifiques de la présente Convention-cadre.
Concernant le mécanisme de suivi
22. Le paragraphe 3 indique que, pour assurer la mise en œuvre effective de la convention-cadre, celle-ci établit un mécanisme de suivi, qui est défini au chapitre VII, voir le commentaire aux paragraphes 129 à 135, et prévoit une coopération internationale, voir le commentaire de l’article 25, paragraphes 137 à 140.
Rapport explicatif
23. La définition d’un système d’intelligence artificielle prescrite dans cet article est tirée de la dernière définition révisée adoptée par l’OCDE le 8 novembre 2023. Le choix des auteurs d’utiliser ce texte particulier est significatif non seulement en raison de la grande qualité des travaux menés par l’OCDE et ses experts, mais aussi en raison de la nécessité d’accroître la coopération internationale sur le thème de l’intelligence artificielle et de faciliter les efforts visant à harmoniser la gouvernance de l’intelligence artificielle au niveau mondial, y compris par l’harmonisation de la terminologie pertinente, qui permet également la mise en œuvre cohérente des différents instruments relatifs à l’intelligence artificielle dans les systèmes juridiques nationaux des parties.
24. La définition reflète une large compréhension de ce que sont les systèmes d’intelligence artificielle, en particulier par opposition à d’autres types de systèmes logiciels traditionnels simples basés sur les règles définies uniquement par des personnes physiques pour exécuter automatiquement des opérations. Elle vise à garantir la précision et la certitude juridiques, tout en restant suffisamment abstraite et flexible pour rester valable malgré les évolutions technologiques futures. La définition a été rédigée pour les besoins de la Convention-cadre et n’a pas vocation à donner une signification universelle au terme concerné. Les auteurs de la proposition ont pris note du mémorandum explicatif accompagnant la définition actualisée d’un système d’intelligence artificielle dans la Recommandation de l’OCDE sur l’intelligence artificielle (OECD/LEGAL/0449, 2019, modifiée en 2023) pour une explication plus détaillée des différents éléments de la définition. Bien que cette définition fournisse une compréhension commune entre les Parties de ce que sont les systèmes d’intelligence artificielle, les Parties peuvent la préciser davantage dans leurs systèmes juridiques nationaux pour plus de certitude et de précision juridiques, sans limiter son champ d’application.
25. Cette définition doit être lue à la lumière des autres dispositions pertinentes de la convention-cadre, qui font référence (1) aux systèmes susceptibles d’interférer avec les droits de l’homme, la démocratie ou l’État de droit et (2) à l’approche graduelle et différenciée de l’article 1er et aux éléments contextuels des dispositions individuelles de la convention-cadre (articles 4 et 5, voir les commentaires respectifs aux paragraphes 37 – 41, 42 – 48 ci-dessous).
1. Le champ d’application de la présente Convention couvre les activités du cycle de vie des systèmes d’intelligence artificielle qui ont le potentiel d’interférer avec les droits de l’homme, la démocratie et l’État de droit comme suit :
a. Chaque Partie applique la présente Convention aux activités du cycle de vie des systèmes d’intelligence artificielle entreprises par les autorités publiques, ou par des acteurs privés agissant en leur nom.
b. Chaque Partie gère les risques et les impacts résultant des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle par des acteurs privés, dans la mesure où ils ne sont pas couverts par le paragraphe a) ci-dessus, d’une manière conforme à l’objet et au but de la présente Convention.
Chaque Partie précise, dans une déclaration soumise au Secrétaire général du Conseil de l’Europe au moment de la signature ou lors du dépôt de son instrument de ratification, d’acceptation, d’approbation ou d’adhésion, comment elle entend s’acquitter de cette obligation, soit en appliquant aux activités des acteurs privés les principes et obligations énoncés aux chapitres II à VI de la présente Convention, soit en prenant d’autres mesures appropriées pour satisfaire à l’obligation énoncée au présent paragraphe. Les parties peuvent, à tout moment et de la même manière, modifier leurs déclarations.
Lorsqu’elle met en œuvre l’obligation prévue au présent paragraphe, une Partie ne peut déroger à ses obligations internationales en matière de protection des droits de l’homme, de la démocratie et de l’État de droit, ni en limiter l’application.
2. Une Partie n’est pas tenue d’appliquer la présente Convention aux activités du cycle de vie des systèmes de renseignement artificiel liées à la protection de ses intérêts en matière de sécurité nationale, étant entendu que ces activités sont menées d’une manière compatible avec le droit international applicable, y compris les obligations découlant du droit international relatif aux droits de l’homme, et dans le respect de ses institutions et processus démocratiques.
3. Sans préjudice de l’article 13 et de l’article 25, paragraphe 2, la présente Convention ne s’applique pas aux activités de recherche et de développement concernant les systèmes d’intelligence artificielle qui n’ont pas encore été rendus disponibles à des fins d’utilisation, à moins que des essais ou des activités similaires ne soient entrepris de manière telle qu’ils risquent de porter atteinte aux droits de l’homme, à la démocratie et à l’État de droit.
4. Les questions relatives à la défense nationale n’entrent pas dans le champ d’application de la présente convention.
Rapport explicatif
26. Cette convention-cadre a un large champ d’application pour couvrir les activités dans le cycle de vie des systèmes de renseignement d’article qui ont le potentiel d’interférer avec les droits de l’homme, la démocratie et l’état de droit.
27. Conformément à la Recommandation n° R (84) 15 du Comité des ministres aux États membres relative à la responsabilité publique du 18 septembre 1984, les auteurs de la proposition partagent l’avis selon lequel le terme “autorité publique” désigne toute entité de droit public de quelque type ou de quelque niveau que ce soit (y compris les entités publiques supranationales, étatiques, régionales, provinciales, municipales et indépendantes) et toute personne privée lorsqu’elle exerce des prérogatives d’autorité publique.
28. Le sous-paragraphe 1(a) oblige les Parties à veiller à ce que ces activités du cycle de vie des systèmes d’intelligence artificielle soient conformes aux dispositions de la présente Convention-cadre lorsqu’elles sont menées par des autorités publiques ainsi que par des acteurs privés agissant en leur nom. Cela impliquerait une obligation de se conformer aux dispositions de la présente convention-cadre en ce qui concerne les activités pour lesquelles les autorités publiques délèguent leurs responsabilités à des acteurs privés ou leur ordonnent d’agir, telles que les activités menées par des acteurs privés opérant en vertu d’un contrat avec une autorité publique ou d’une autre prestation privée de services publics, ainsi que les marchés publics et les contrats.
29. Le paragraphe 1(b) oblige toutes les Parties à traiter les risques et les impacts sur les droits de l’homme, la démocratie et l’État de droit dans le secteur privé, y compris pour les acteurs privés, dans la mesure où ils ne sont pas déjà couverts par le paragraphe 1(a). En outre, les références à l’objet et au but ont pour effet d’importer tous les concepts de l’article 1, c’est-à-dire que s’attaquer aux risques n’est pas simplement reconnaître ces risques, mais requiert l’adoption ou le maintien de mesures législatives, administratives ou autres appropriées pour donner effet à cette disposition ainsi que la coopération entre les Parties comme dans les dispositions relatives au mécanisme de suivi et à la coopération internationale. Toutefois, l’obligation ne requiert pas nécessairement une législation supplémentaire et les parties peuvent recourir à d’autres mesures appropriées, y compris des mesures administratives et volontaires. Ainsi, alors que l’obligation est contraignante et que toutes les Parties devraient s’y conformer, la nature des mesures prises par les Parties pourrait varier. En tout état de cause, lors de la mise en œuvre de l’obligation visée au paragraphe 1, alinéa b), une Partie ne peut déroger à ses obligations internationales en matière de protection des droits de l’homme, de la démocratie et de l’État de droit, ni en limiter l’application.
30. Afin d’assurer la sécurité juridique et la transparence, chaque Partie est tenue de préciser dans une déclaration comment elle entend se conformer à l’obligation énoncée dans le présent paragraphe, soit en appliquant aux activités des acteurs privés les principes et obligations énoncés aux chapitres II à VI de la Convention-cadre, soit en prenant d’autres mesures appropriées pour satisfaire à l’obligation énoncée dans le présent paragraphe. Pour les parties qui ont choisi de ne pas appliquer les principes et les obligations de la convention-cadre en ce qui concerne les activités d’autres acteurs privés, les auteurs du projet s’attendent à ce que les approches de ces parties évoluent dans le temps, au fur et à mesure de l’évolution de leurs approches en matière de réglementation du secteur privé.
31. Toutes les parties devraient soumettre leurs déclarations au Secrétaire général du Conseil de l’Europe au moment de la signature ou lors du dépôt d’un instrument de ratification, d’acceptation, d’approbation ou d’adhésion. Étant donné qu’il est important pour les parties à la convention-cadre de connaître les déclarations qui ont été formulées, le secrétaire général du Conseil de l’Europe partagera immédiatement avec les autres parties les déclarations reçues. Les parties peuvent, à tout moment et de la même manière, modifier leurs déclarations.
32. Tout en maintenant un large champ d’application de la Convention-cadre, le paragraphe 2 prévoit qu’une Partie n’est pas tenue d’appliquer la Convention-cadre aux activités du cycle de vie des systèmes d’intelligence artificielle liées à la protection de ses intérêts en matière de sécurité nationale, quel que soit le type d’entités exerçant les activités en question. De telles activités doivent néanmoins être menées d’une manière compatible avec les obligations juridiques internationales applicables, car la sécurité nationale est incluse dans le champ d’application de nombreux traités internationaux relatifs aux droits de l’homme, tels que, mais sans s’y limiter, la Convention du Conseil de l’Europe pour la protection des droits de l’homme et des libertés fondamentales (CEDH), la Convention américaine relative aux droits de l’homme (Pacte de San José), le Pacte international des Nations unies relatif aux droits civils et politiques (PIDCP) et le Pacte international des Nations unies relatif aux droits économiques, sociaux et culturels (PIDESC). Les activités visant à protéger les intérêts de la sécurité nationale qui interfèrent avec les droits de l’homme doivent être prévues par la loi, respecter l’essence des droits de l’homme et, dans la mesure où elles sont applicables dans le cadre des obligations susmentionnées, constituer une mesure nécessaire et proportionnée dans une société démocratique. Ces activités doivent également être menées dans le respect des processus et institutions démocratiques des parties, comme le prévoit leur législation nationale, en conformité avec le droit international applicable. Cette exception au champ d’application de la Convention-cadre ne s’applique que si et dans la mesure où les activités sont liées à la protection des intérêts de la sécurité nationale. Cette disposition maintient dans le champ d’application de la convention-cadre les activités concernant les systèmes de renseignement artificiel à double usage dans la mesure où ceux-ci sont destinés à être utilisés à d’autres fins non liées à la protection des intérêts de sécurité nationale des parties et où ils sont conformes aux obligations des parties au titre de l’article 3. Toutes les activités régulières d’application de la loi en matière de prévention, de détection, d’enquête et de poursuite des crimes, y compris les menaces contre la sécurité publique, restent également dans le champ d’application de la convention-cadre si et dans la mesure où les intérêts de sécurité nationale des parties ne sont pas en jeu.
33. En ce qui concerne le paragraphe 3, la formulation reflète l’intention des auteurs de la proposition d’exclure les activités de recherche et de développement du champ d’application de la convention-cadre sous certaines conditions, à savoir que les systèmes d’intelligence artificielle en question n’aient pas été mis à disposition à des fins d’utilisation et que les essais et autres activités similaires ne présentent pas un risque d’interférence avec les droits de l’homme, la démocratie et l’État de droit. De telles activités exclues du champ d’application de la convention-cadre devraient en tout état de cause être menées dans le respect des droits de l’homme et du droit national applicables, ainsi que des normes éthiques et professionnelles reconnues en matière de recherche scientifique.
34. L’intention des auteurs de la proposition est également de considérer que les systèmes d’intelligence artificielle qui sont mis à disposition pour être utilisés à la suite de telles activités de recherche et de développement devraient en principe être conformes à la Convention-cadre, y compris en ce qui concerne leur conception et leur développement.
35. L’exemption pour les activités de recherche et de développement contenue dans le paragraphe 3 devrait être mise en œuvre sans préjudice du principe d’ ”innovation sûre”, voir l’article 13, et de l’échange entre les parties d’informations sur les risques, ainsi que sur les effets positifs ou négatifs significatifs sur les droits de l’homme, la démocratie et l’État de droit, qui se produisent dans des contextes de recherche, voir l’article 25, paragraphe 2, sur la “coopération internationale”.
36. Pour l’exclusion des “questions relatives à la défense nationale” du champ d’application de la convention-cadre, les auteurs de la proposition ont décidé d’utiliser un langage tiré de l’article 1, d, des statuts du Conseil de l’Europe (STE n° 1), qui stipule que “[m]es questions relatives à la défense nationale ne relèvent pas du champ d’application du Conseil de l’Europe”. Cette exemption n’implique pas que les activités relevant du cycle de vie des systèmes d’intelligence artificielle liés à la défense nationale ne sont pas couvertes par le droit international.
Rapport explicatif
37. Cette disposition se réfère aux obligations de chaque Partie dans le domaine de la protection des droits de l’homme, telles qu’elles sont énoncées dans le droit international et national applicable, en ce qui concerne les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle.
38. En vertu du droit international, les parties ont le devoir de veiller à ce que leur droit interne soit conforme à leurs obligations juridiques internationales, qui comprennent les obligations découlant des traités internationaux qui les lient. Le droit international relatif aux droits de l’homme établit l’obligation pour chaque Partie de respecter, de protéger et de faire respecter les droits de l’homme. Chaque Partie a l’obligation de veiller à ce que son droit interne soit conforme à ses obligations internationales en matière de droits de l’homme. Dans le même temps, les parties sont libres de choisir les voies et moyens de mettre en œuvre leurs obligations internationales en matière de droits de l’homme.
gal obligations, à condition que le résultat soit conforme à ces obligations. Il s’agit d’une obligation de résultat et non d’une obligation de moyens. A cet égard, le principe de subsidiarité est essentiel, les Parties ayant la responsabilité première d’assurer le respect des droits de l’homme et de fournir une réparation en cas de violation des droits de l’homme.
39. Vous trouverez ci-dessous une liste des principaux instruments et traités internationaux en matière de droits de l’homme, tant au niveau mondial que régional, auxquels les différents États qui ont négocié la Convention-cadre peuvent être parties (par ordre chronologique) :
Instruments des Nations Unies :
1. La Convention internationale des Nations unies de 1965 sur l’élimination de toutes les formes de discrimination raciale (ICERD) ;
2. La Convention internationale des Nations unies relative aux droits civils et politiques de 1966 et ses protocoles facultatifs (ICCPR) ;
3. La Convention internationale des Nations unies de 1966 relative aux droits économiques, sociaux et culturels (PIDESC) et son Protocole facultatif ;
4. La Convention des Nations Unies de 1979 sur l’élimination de toutes les formes de discrimination à l’égard des femmes (CEDAW) et son Protocole facultatif ;
5. La Convention des Nations Unies contre la torture et autres peines ou traitements cruels, inhumains ou dégradants de 1984 et son Protocole facultatif ;
6. La Convention des Nations Unies relative aux droits de l’enfant (CNUDE) de 1989 et ses Protocoles facultatifs ;
7. La Convention des Nations Unies pour la protection de toutes les personnes contre les disparitions forcées de 2006 ; et
8. La Convention des Nations Unies de 2006 relative aux droits des personnes handicapées (UNCRPD) et son Protocole facultatif.
Conseil de l’Europe et instruments de l’UE :
1. La Convention de 1950 du Conseil de l’Europe pour la protection des droits de l’homme et des libertés fondamentales ((STE n° 5, CEDH) et ses protocoles ;
2. La Charte sociale européenne de 1961 (STE n° 35, CSE) et ses protocoles et la Charte européenne révisée de 1996 (STE n° 163) ;
3. Convention de 1981 pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, telle qu’amendée (STE n° 108, STCE n° 223) et ses protocoles ;
4. La Convention européenne pour la prévention de la torture et des peines ou traitements inhumains ou dégradants de 1987 (STE n° 126) et ses protocoles ;
5. La Convention de 1997 pour la protection des droits de l’homme et de la dignité de l’être humain à l’égard des applications de la biologie et de la médecine : Convention sur les droits de l’homme et la biomédecine ((STE n° 164, la Convention d’Oviedo) et ses protocoles ;
6. La Convention-cadre de 1998 pour la protection des minorités nationales (STE n° 157) ;
7. La Charte des droits fondamentaux de l’Union européenne de 2000 (CFR, reconnue avec la même valeur juridique que les traités en vertu de l’article 6 (1) du Traité sur l’UE) ;
8. La Convention 2005 du Conseil de l’Europe sur l’action contre la traite des êtres humains (STCE n° 197) ;
9. La Convention 2007 du Conseil de l’Europe sur la protection des enfants contre l’exploitation et les abus sexuels ((STCE n° 201, la Convention de Lanzarote) ; et
10. La Convention 2011 du Conseil de l’Europe sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique ((STCE n° 210, la Convention d’Istanbul) ;
Autres instruments régionaux :
1. The 1969 American Convention on Human Rights (Pact of San José) and its first additional protocols ;
2. La Convention interaméricaine de 1985 pour la prévention et la répression de la torture ;
3. La Convention interaméricaine de 1994 sur les disparitions forcées de personnes ;
4. The 1994 Inter-American Convention on the Prevention, Punishment and Eradication of Violence against Women ;
5. La Convention interaméricaine de 1999 sur l’élimination de toutes les formes de discrimination à l’égard des personnes handicapées ;
6. The 2013 Inter-American Convention against Racism, Racial Discrimination, and Related Forms of Intolerance ; et
7. La Convention interaméricaine de 2015 sur la protection des droits de l’homme des personnes âgées.
40. Outre les obligations légales découlant du droit international relatif aux droits de l’homme, l’article 4 de la Convention-cadre fait également référence à la protection des droits de l’homme dans le droit interne de chaque partie. Celles-ci comprennent typiquement les normes et règles constitutionnelles et autres normes subordonnées, ainsi que les mécanismes de contrôle et d’application de leur mise en œuvre, qui visent à protéger les droits de l’homme. Les rédacteurs ont souhaité préciser que la référence au droit interne dans cette disposition et ailleurs n’a pas pour but de servir de moyen d’exemption aux obligations des parties de se conformer à leurs obligations en vertu du droit international.
41. Dans le contexte susmentionné, l’obligation générale énoncée à l’article 4 de la convention-cadre impose aux parties de faire le point sur leurs obligations, cadres et mécanismes existants en matière de droits de l’homme dans leur système juridique national et, conformément à l’approche décrite à l’article 1, paragraphe 2, de veiller à ce que les cadres, règles et mécanismes existants continuent de protéger et de promouvoir les droits de l’homme, conformément aux obligations internationales en matière de droits de l’homme, et soient suffisants et efficaces pour répondre à l’évolution du paysage de l’intelligence artificielle.
1. Chaque Partie adopte ou maintient des mesures visant à faire en sorte que les systèmes d’intelligence artificielle ne soient pas utilisés
de porter atteinte à l’intégrité, à l’indépendance et à l’efficacité des institutions et des processus démocratiques, y compris le principe de la séparation des pouvoirs
n de pouvoirs, res
pect de l’indépendance judiciaire et de l’accès à la justice.
2. Chaque Partie adopte ou maintient des mesures visant à protéger ses processus démocratiques dans le cadre des activités relevant du cycle de vie des systèmes d’intelligence artificielle, y compris l’accès équitable des personnes au débat public et leur participation à ce débat, ainsi que leur capacité à formuler librement des opinions.
Rapport explicatif
42. Les technologies de l’intelligence artificielle possèdent un potentiel significatif pour améliorer les valeurs, les institutions et les processus démocratiques. Les impacts potentiels incluent le développement d’une compréhension plus profonde de la politique chez les citoyens, permettant une plus grande participation au débat démocratique ou améliorant l’intégrité de l’information dans l’espace civique en ligne. Similarly, political representatives, candidates, public officials or public representatives can establish closer connections with individuals, ultimately enhancing the ability of political representatives, public officials or public representatives to represent the public more effectively. Cet alignement entre les représentants politiques, les fonctionnaires ou les représentants publics et les citoyens a le potentiel de transformer les campagnes électorales et d’améliorer de manière significative le processus d’élaboration des politiques, en favorisant une plus grande inclusion, transparence et efficacité.
43. Les préoccupations concernant l’utilisation de l’intelligence artificielle en politique sont présentes depuis longtemps, mais celles qui sont spécifiquement liées aux démocraties et au processus électoral se sont intensifiées avec les avancées technologiques récentes. Les applications récemment introduites de cette technologie émergente pourraient poser de nombreuses menaces pour la démocratie et les droits de l’homme, servant d’outil puissant pour fragmenter la sphère publique et saper la participation civique et la confiance dans la démocratie. De tels outils pourraient permettre à des utilisateurs, y compris des acteurs malveillants, de diffuser de la désinformation et des informations erronées qui pourraient porter atteinte à l’intégrité de l’information (y compris par l’utilisation de contenus générés par l’IA ou la manipulation de contenus authentiques par l’IA) et, le cas échéant, au droit d’accès à l’information ; de prendre des décisions préjudiciables à l’égard d’individus, entraînant potentiellement des pratiques discriminatoires ; d’influencer des décisions judiciaires, avec des conséquences potentielles pour l’intégrité du système judiciaire ; et d’entreprendre une surveillance illégale ou arbitraire, entraînant des restrictions de la liberté d’association ou de la liberté d’expression, et de la vie privée.
44. L’utilisation de la technologie de l’intelligence artificielle de la manière décrite ci-dessus pourrait faire exploser les tensions ou saper la confiance du public, qui est un élément essentiel d’un gouvernement démocratique efficace. L’intelligence artificielle a la capacité de générer de fausses informations ou de conduire à l’exclusion des processus démocratiques d’individus ou de personnes qui pourraient être sous-représentés ou en situation de vulnérabilité. Elle pourrait également exacerber la curation de contenu manipulatrice. Malgré ses aspects avantageux, l’intelligence artificielle comporte le risque significatif d’avoir un impact négatif sur le processus démocratique et l’exercice des droits de l’homme pertinents. Toutefois, avec la mise en œuvre de garanties appropriées, ces technologies pourraient s’avérer bénéfiques pour la démocratie.
45. l’article 5, les auteurs du projet de loi ont souhaité mettre l’accent sur des contextes sensibles spécifiques (le paragraphe 1 couvrant principalement les aspects institutionnels pertinents et le paragraphe 2 les processus démocratiques pertinents) dans lesquels l’utilisation potentielle de l’intelligence artificielle devrait être précédée d’une prise en compte attentive des risques pour la démocratie et l’État de droit et être accompagnée de règles et de garanties appropriées. Malgré l’absence d’une définition communément acceptée de l’expression “institutions et processus démocratiques”, la référence est faite à tous les systèmes de gouvernement avec certaines caractéristiques et institutions de base qui sont communes à tous les pays démocratiques.
46. Dans la mise en œuvre de ses obligations de protection des institutions et processus démocratiques en vertu de l’article 5, les Parties peuvent souhaiter mettre l’accent, par exemple, sur les risques que présentent les systèmes d’intelligence artificielle pour :
a)le principe de la séparation des pouvoirs (dans les branches exécutive, législative et judiciaire) ;
b)un système efficace de contrôle et d’équilibre des pouvoirs entre les trois branches du gouvernement, y compris une supervision effective de la branche exécutive ;
c)where applicable, a balanced distribution of powers between different levels of government (so-called vertical separation of powers) ;
d)le pluralisme politique (assuré en grande partie par la protection des droits de l’homme, dont le respect est essentiel pour une démocratie florissante, tels que la liberté d’expression, la liberté d’association et la liberté de réunion pacifique ; et l’existence de médias pluralistes et indépendants et d’un éventail de partis politiques représentant des intérêts et des points de vue différents) et un accès équitable au débat public et une participation à celui-ci
e)la participation aux processus démocratiques par le biais d’élections libres et équitables, et une pluralité de formes de participation civile et politique significatives ;
f)la règle de la majorité politique associée au respect des droits des minorités politiques ;
g)le respect de la règle de droit (comprenant en général les principes de légalité, de certitude juridique et de non-arbitraire) et le principe de l’accès à la justice et de sa bonne administration ; et
h)le respect du principe de l’indépendance du pouvoir judiciaire.
47. En outre, l’intégrité de la démocratie et de ses processus repose sur deux hypothèses importantes mentionnées dans l’article 7, à savoir que les individus ont une autonomie (capacité de former une opinion et d’agir sur celle-ci) ainsi qu’une influence (capacité d’influencer les décisions prises en leur nom). Les technologies de l’intelligence artificielle peuvent renforcer ces capacités mais, inversement, elles peuvent aussi les menacer ou les saper. C’est pour cette raison que le paragraphe 2 de la disposition fait référence à la nécessité d’adopter ou de maintenir des mesures qui visent à protéger “les droits de l’homme”.
la capacité [des individus] à former librement leurs opinions”. En ce qui concerne les utilisations de l’intelligence artificielle dans le secteur public, il pourrait s’agir, par exemple, de mesures générales de cybersécurité contre l’ingérence étrangère malveillante dans le processus électoral ou de mesures visant à lutter contre la diffusion d’informations erronées et de désinformation.
48. En même temps, cette disposition n’a pas pour but de créer, de réduire, d’étendre ou de modifier de quelque manière que ce soit les normes existantes applicables en matière de droits de l’homme, y compris la liberté d’expression (comme pour l’expression politique), la liberté d’association et la liberté de réunion, telles qu’elles sont prévues par les obligations internationales et le droit interne relatif aux droits de l’homme en vigueur dans chaque Partie.
Chapitre III – Principes relatifs aux activités du cycle de vie des systèmes d’intelligence artificielle
Rapport explicatif
49. Cette disposition indique clairement que les principes contenus dans ce chapitre doivent être intégrés dans les approches nationales des Parties en matière de réglementation des systèmes d’intelligence artificielle. En tant que tels, ils sont délibérément conçus à un haut niveau de généralité, avec l’intention qu’ils soient des exigences primordiales qui puissent être appliquées avec souplesse dans une variété de contextes en évolution rapide. Elles sont également puristes, expriment la raison derrière la règle et ont une application très large à un large éventail de circonstances.
50. Les rédacteurs ont souhaité préciser que la mise en œuvre de ce chapitre, conformément aux obligations énoncées aux articles 4 et 5, devrait être effectuée par chaque partie conformément à l’approche décrite à l’article 1er , paragraphe 2, d’une manière adaptée à son système juridique national, et en tenant également compte des autres obligations contenues dans la présente convention-cadre.
51. Ce point est particulièrement important dans la mesure où, comme mentionné précédemment, en vertu de leurs obligations internationales respectives en matière de droits de l’homme, chaque partie dispose déjà d’un régime juridique détaillé de protection des droits de l’homme avec son propre ensemble de règles, de principes et de pratiques concernant la portée, le contenu des droits et les éventuelles restrictions, dérogations ou exceptions à ces droits, ainsi que le fonctionnement des mécanismes de contrôle et d’application applicables.
52. En outre, rien dans la présente Convention-cadre n’est censé affecter les obligations existantes en matière de droits de l’homme lorsqu’elles se chevauchent avec les principes énoncés au Chapitre III.
Rapport explicatif
53. Cette disposition souligne l’importance de la dignité humaine et de l’autonomie individuelle dans le cadre d’une réglementation et d’une gouvernance centrées sur l’homme des activités du cycle de vie des systèmes d’intelligence artificielle relevant du champ d’application de la convention-cadre. Les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle ne doivent pas conduire à la déshumanisation des individus, saper leur autonomie ou les réduire à de simples points de données, ni anthropomorphiser les systèmes d’intelligence artificielle d’une manière qui interfère avec la dignité humaine. La dignité humaine exige de reconnaître la complexité et la richesse de l’identité, de l’expérience, des valeurs et des émotions humaines.
54. Upholding human dignity implies respecting the inherent value and worth of each individual, regardless of their background, characteristics, or circumstances and refers in particular to the way in which all human beings should be treated. La dignité de la personne humaine étant universellement reconnue comme constituant le fondement des droits de l’homme[4], la référence à celle-ci comme premier principe du chapitre III souligne le caractère global de la Convention-cadre, puisque toutes les Parties reconnaissent la dignité inhérente de la personne humaine comme fondement sous-jacent des droits de l’homme, de la participation démocratique et de la règle de l’unanimité.
aw.
55. L’autonomie individuelle est un aspect important de la dignité humaine et se réfère à la capacité des individus à s’autodéterminer, c’est-à-dire à faire des choix et des décisions, y compris sans contrainte, et à vivre leur vie en toute liberté. Dans le contexte de l’intelligence artificielle, l’autonomie individuelle exige que les individus aient un contrôle sur l’utilisation et l’impact des technologies de l’intelligence artificielle dans leur vie, et que
leur pouvoir et leur autonomie ne sont pas diminués pour autant. La réglementation centrée sur l’être humain reconnaît l’importance de permettre aux individus de façonner leurs expériences avec l’intelligence artificielle, en veillant à ce que ces technologies renforcent leur autonomie plutôt que de la violer. Les auteurs de la proposition ont considéré que la référence à ce concept dans cette convention-cadre était particulièrement appropriée compte tenu de la capacité des systèmes d’intelligence artificielle à imiter et à manipuler.
Rapport explicatif
56. En raison de certaines caractéristiques qui distinguent les systèmes d’intelligence artificielle des systèmes informatiques traditionnels, et qui peuvent inclure la complexité, l’opacité, l’adaptabilité et différents degrés d’autonomie, les activités du cycle de vie des systèmes d’intelligence artificielle qui relèvent du champ d’application de la convention-cadre nécessitent des garanties appropriées sous la forme de mécanismes de transparence et de contrôle.
57. Le principe de transparence énoncé à l’article 8 se réfère à l’ouverture et à la clarté dans la gouvernance des activités du cycle de vie des systèmes d’intelligence artificielle et signifie que les processus décisionnels et le fonctionnement général des systèmes d’intelligence artificielle doivent être compréhensibles et accessibles aux acteurs de l’intelligence artificielle concernés et, si nécessaire et approprié, aux parties prenantes concernées. Dans certains cas, cela pourrait également impliquer la fourniture d’informations supplémentaires, y compris, par exemple, sur les algorithmes utilisés, sous réserve de la sécurité, de la propriété commerciale et intellectuelle et d’autres considérations, comme indiqué au paragraphe 62 ci-dessous. Les moyens d’assurer la transparence dépendraient de nombreux facteurs différents tels que, par exemple, le type de système d’intelligence artificielle, le contexte de son utilisation ou son rôle, et les antécédents de l’acteur concerné ou de la partie prenante affectée. En outre, les mesures pertinentes incluent, le cas échéant, l’enregistrement de considérations clés telles que la provenance des données, les méthodologies de formation, la validité des sources de données, la documentation et la transparence sur la formation, les tests et la validation des données utilisées, les efforts de mitigation des risques, et les processus et décisions mis en œuvre, afin d’aider à une compréhension globale de la manière dont les résultats du système d’intelligence artificielle sont dérivés et ont un impact sur les droits de l’homme, la démocratie et l’ordre juridique. Cela contribuera en particulier à garantir la responsabilité et à permettre aux personnes concernées de contester l’utilisation ou les résultats du système d’intelligence artificielle, le cas échéant (voir le commentaire de l’article 14, paragraphes 95 à 102).
58. Providing transparency about an artificial intelligence system could therefore require communicating appropriate information about the system (such as, for example, known limitations, assumptions and engineering choices made during design, features, details of the underlying models or algorithms, training methods and quality assurance processes). Le terme de ‘transparence algorithmique’ est souvent utilisé pour décrire l’ouverture sur le but, la structure et les actions sous-jacentes d’un système à base d’algorithmes. En outre, la transparence peut impliquer, le cas échéant, d’informer les personnes concernées ou le grand public sur les détails des données utilisées pour créer, entraîner et exploiter le système et la protection des données personnelles, ainsi que sur l’objectif du système et la manière dont il a été conçu, testé et déployé. La transparence devrait également inclure l’information des personnes concernées sur le traitement des informations et les types et niveaux d’automatisation utilisés pour prendre des décisions conséquentes, ainsi que sur les risques liés à l’utilisation du système d’intelligence artificielle. La transparence pourrait en outre faciliter la possibilité pour les parties ayant des intérêts légitimes, y compris les détenteurs de droits d’auteur, d’exercer et de faire valoir leurs droits de propriété intellectuelle.
59. La disposition prévoit également des mesures relatives à l’identification du contenu généré par l’IA afin d’éviter le risque de déception et de permettre la distinction entre le contenu authentique généré par l’homme et le contenu généré par l’IA, car il devient de plus en plus difficile pour les personnes de l’identifier. De telles mesures pourraient inclure des techniques telles que l’étiquetage et le marquage à l’encre – qui impliquent généralement l’intégration d’une signature reconnaissable dans la sortie du système d’intelligence artificielle – en fonction de la disponibilité de ces technologies et de leur efficacité prouvée, de l’état de l’art généralement reconnu et des spécificités des différents types de contenu. Promouvoir l’utilisation de standards techniques, de licences open-source et de la co
llaboration de chercheurs et de développeurs soutient le développement de systèmes d’intelligence artificielle plus transparents à long terme.60. Il est important de souligner deux aspects importants du principe de transparence, à savoir e
xplainability et interprétabilité. Le site
Le terme “explicabilité” se réfère à la capacité de fournir, sous réserve de faisabilité technique et en tenant compte de l’état de l’art généralement reconnu, des explications suffisamment compréhensibles sur les raisons pour lesquelles un système d’intelligence artificielle fournit des informations, des prévisions, des contenus, des recommandations ou des décisions, ce qui est particulièrement crucial dans les domaines sensibles tels que la santé, la finance, l’immigration, les services frontaliers et la justice pénale, où la compréhension du raisonnement derrière les décisions produites ou assistées par un système d’intelligence artificielle est essentielle. Dans de tels cas, la transparence pourrait, par exemple, prendre la forme d’une liste de facteurs que le système d’intelligence artificielle prend en considération lorsqu’il informe ou prend une décision.61. Un autre aspect important de la transparence est l’interprétabilité, qui se réfère à la possibilité de comprendre comment un système d’intelligence artificielle fait ses prédictions ou ses décisions ou, en d’autres termes, la mesure dans laquelle les résultats des systèmes d’intelligence artificielle peuvent être rendus accessibles et compréhensibles aux experts et aux non-experts. Cela implique de rendre le fonctionnement interne, la logique et les processus de décision des systèmes d’intelligence artificielle compréhensibles et accessibles aux utilisateurs humains, y compris les développeurs, les parties prenantes et les utilisateurs finaux, ainsi que les personnes concernées. Ces deux aspects sont également essentiels pour satisfaire aux exigences mentionnées aux articles 12, 13 et 14 en général et au paragraphe (b) en particulier, ainsi qu’à l’article 16. En outre, les auteurs du projet de loi ont souhaité souligner que la transparence dans le contexte des systèmes d’intelligence artificielle est soumise à des limitations technologiques – souvent, le chemin précis menant à un résultat particulier d’un système d’intelligence artificielle n’est pas facilement accessible, même à ceux qui le conçoivent ou le déploient. La réalisation du principe de transparence dans de telles circonstances est une question de degré, d’état de l’art, de circonstances et de contexte.
62. Étant donné que la divulgation de certaines de ces informations dans un souci de transparence peut aller à l’encontre de la vie privée, de la confidentialité (y compris, par exemple, les secrets commerciaux), de la sécurité nationale, de la protection des droits des tiers, de l’ordre public, de l’indépendance de la justice ainsi que d’autres considérations et exigences légales, dans la mise en œuvre de ce principe, les parties sont tenues de trouver un juste équilibre entre les différents intérêts en jeu et de procéder aux ajustements nécessaires dans les cadres pertinents sans altérer ni modifier le régime de base du droit applicable en matière de droits de l’homme.
63. En ce qui concerne le deuxième principe mentionné dans la présente disposition, la surveillance dans le contexte des systèmes d’intelligence artificielle se réfère à divers mécanismes, processus et cadres conçus pour surveiller, évaluer et guider les activités au cours du cycle de vie des systèmes d’intelligence artificielle. Ceux-ci peuvent potentiellement consister en des cadres légaux, politiques et réglementaires, des recommandations, des lignes directrices éthiques, des codes de pratique, des programmes d’audit et de certification, des outils de détection et d’atténuation des biais. Ils pourraient également inclure des organes et des comités de surveillance, des autorités compétentes telles que des autorités de contrôle sectorielles, des autorités de protection des données, des organismes chargés de l’égalité et des droits de l’homme, des institutions nationales des droits de l’homme (INDH) ou des agences de protection des consommateurs, un suivi continu des capacités de développement actuelles et un audit, des consultations et un engagement du public, une gestion des risques et des impacts.
works and human rights impact assessment frameworks, technical standards, as well as education and awareness programs.
64. Une option, dans certains cas, pourrait consister à prévoir une certaine forme de protection contre les représailles pour les lanceurs d’alerte internes qui dénoncent des malversations et la fiabilité des déclarations publiques faites par des acteurs de l’intelligence artificielle. cet égard, les auteurs de la proposition souhaitaient faire une référence particulière à la Recommandation CM/Rec(2014)7 du Comité des ministres aux États membres sur la protection des lanceurs d’alerte.
65. Compte tenu de la complexité des systèmes d’intelligence artificielle et de la difficulté de les contrôler, les Parties sont encouragées à mettre en œuvre des mesures visant à garantir que ces systèmes sont conçus, développés et utilisés de manière à ce qu’il existe des mécanismes de contrôle efficaces et fiables, y compris un contrôle humain[5], dans le cadre du cycle de vie des systèmes d’intelligence artificielle. Le principe de contrôle est plus général et donc différent de l’obligation substantielle spécifique énoncée à l’article 26 de la convention-cadre, qui exige des parties qu’elles établissent ou désignent des mécanismes efficaces pour assurer le respect des obligations prévues par la convention-cadre, comme le prévoit leur système juridique national (voir le commentaire de l’article 26 aux paragraphes 141 à 144 ci-dessous).
Rapport explicatif
66. Le principe de responsabilité énoncé dans cette disposition fait référence à la nécessité de prévoir des mécanismes permettant aux personnes, organisations ou entités responsables des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle de répondre aux effets négatifs sur les droits de l’homme, la démocratie ou le droit résultant des activités menées dans le cadre du cycle de vie de ces systèmes. Namely, the provision requires Parties to establish new frameworks and mechanisms, or to maintain existing frameworks and mechanisms as may then be applied to activities within the lifecycle of artificial intelligence systems to give effect to this requirement. Cela peut également inclure des mesures judiciaires et administratives, des régimes de responsabilité civile, pénale et autres et, dans le secteur public, des procédures administratives et autres afin que les décisions puissent être contestées, ou le placement de responsabilités et d’obligations spécifiques sur les opérateurs.
67. Conformément à l’approche décrite dans le commentaire de l’article 4, paragraphes 37 à 41, et dans le commentaire de l’article 6, paragraphes 50 à 51, ci-dessus, les termes “effets négatifs sur les droits de l’homme, la démocratie et l’État de droit” utilisés dans cette disposition se réfèrent principalement aux obligations et engagements en matière de droits de l’homme applicables aux cadres existants de chaque partie en matière de droits de l’homme, de démocratie et d’État de droit. Ces normes, dans la mesure où elles sont applicables, incluent la notion de “violation des droits de l’homme” contenue dans l’article 2 du PIDCP, les articles 13, 34, 41 et 46 de la CEDH et les articles 25 et 63 du Pacte de San José. En ce qui concerne la démocratie et l’État de droit, voir en particulier les contextes mentionnés dans le commentaire de l’article 5 (paragraphes 45 et 46 ci-dessus) et les cadres nationaux existants pertinents en ce qui concerne la protection de l’intégrité des processus et institutions démocratiques.
68. Ce principe souligne la nécessité de lignes de responsabilité claires et la possibilité de retracer les actions et les décisions à des individus ou des entités spécifiques d’une manière qui reconnaisse la diversité des acteurs concernés ainsi que leurs rôles et leurs responsabilités. Ceci est important pour garantir que, par exemple, si l’utilisation d’un système d’intelligence artificielle entraîne un impact négatif sur les droits de l’homme, la démocratie ou le droit, il existe un mécanisme permettant d’identifier de tels résultats et d’attribuer les responsabilités de manière appropriée. En d’autres termes, tous les acteurs responsables des activités dans le cycle de vie des systèmes d’intelligence artificielle, qu’il s’agisse d’organisations publiques ou privées, doivent être soumis au cadre existant de règles, de normes juridiques et d’autres mécanismes appropriés de chaque partie afin de permettre une attribution effective des responsabilités appliquées au contexte des systèmes d’intelligence artificielle.
69. Le principe de responsabilité et d’imputabilité est indissociable du principe de transparence et de contrôle, car les mécanismes de transparence et de contrôle permettent de rendre des comptes.
en clarifiant la manière dont les systèmes d’intelligence artificielle fonctionnent et produisent des résultats. Lorsque les parties prenantes concernées comprennent les processus et algorithmes sous-jacents, il devient plus facile de tracer et d’attribuer des responsabilités en cas d’impact négatif sur les droits de l’homme, la démocratie ou le respect du droit, y compris les violations des droits de l’homme.
70. Enfin, en raison des caractéristiques du cycle de vie de l’intelligence artificielle décrites précédemment, le principe de responsabilité et d’obligation de rendre des comptes comprend également l’obligation pour les États d’adopter ou de maintenir des mesures visant à garantir que les personnes responsables de systèmes d’intelligence artificielle considèrent les risques potentiels pour les droits de l’homme, la démocratie et le droit résultant des activités au sein du cycle de vie des systèmes d’intelligence artificielle. Cela inclut une action proactive pour prévenir et atténuer à la fois les risques et les effets négatifs sur les droits de l’homme, la démocratie ou l’État de droit (voir le commentaire de l’article 16, paragraphes 105 à 112).
1. Chaque Partie adopte ou maintient des mesures visant à garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle respectent l’égalité, y compris l’égalité entre les sexes, et l’interdiction de la discrimination, telles que prévues par le droit international et national applicable.
2. Chaque Partie s’engage à adopter ou à maintenir des mesures visant à surmonter les inégalités afin d’obtenir des résultats justes, équitables et conformes à ses obligations nationales et internationales en matière de droits de l’homme, en ce qui concerne les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle.
Rapport explicatif
71. En rédigeant le paragraphe 1 de l’article 10, qui mentionne “l’égalité, y compris l’égalité entre les hommes et les femmes et l’interdiction de la discrimination, telle qu’elle est prévue par le droit international et national applicable”, les auteurs de la proposition de loi avaient l’intention de se référer spécifiquement à l’ensemble du droit des droits de l’homme existant, composé d’instruments juridiques internationaux (aux deux niveaux mondial et régional) et nationaux applicables à chaque partie, qui fournissent ensemble une base juridique solide et des orientations permettant à chaque partie d’envisager les mesures à adopter ou à maintenir,
en vue d’assurer l’égalité et l’interdiction de la discrimination dans les domaines concernés dans le cadre des activités liées au cycle de vie des systèmes d’intelligence artificielle.
72. Au niveau global, les cadres pertinents pour chaque Partie peuvent inclure les dispositions suivantes :
a) Articles 2, 24 et 26 de l’ICCPR ;
b) les articles 2, 3 et l’article 7 du PIDESC ; et
c) Instruments juridiques spécialisés tels que la CIERD, la CEDAW, la CNUDCI et la CNUDP.
73. Au niveau régional, les cadres pertinents pour chaque partie peuvent inclure :
a) Article 14 de la CEDH et son Protocole n° 12 ;
b) Paragraphes 20 et 27 de la partie I, article 20 de la partie II et article E de la partie V de la CSE ;
c) Instruments juridiques spécialisés du Conseil de l’Europe, tels que l’article 4 de la Convention-cadre pour la protection des minorités nationales et l’article 4 de la Convention d’Istanbul ;
d) Titre III de la Charte des droits fondamentaux de l’UE, traités de l’UE (par exemple, article 2 du Traité sur l’Union européenne, article 10 du Traité sur le fonctionnement de l’Union européenne), législation secondaire de l’UE[6] et jurisprudence pertinente de la Cour de justice de l’Union européenne ;
e) l’article 24 du Pacte de San José ; et
f) Instruments juridiques spécialisés, tels que la Convention interaméricaine de 1999 sur l’élimination de toutes les formes de discrimination à l’égard des personnes handicapées ; la Convention interaméricaine de 2013 contre le racisme, la discrimination raciale et les formes connexes d’intolérance et la Convention interaméricaine de 2015 sur la protection des droits de l’homme des personnes âgées.
74. Les parties devraient prendre en considération les éléments pertinents de leur droit national, qui pourraient inclure le droit constitutionnel, les statuts et la jurisprudence.
75. Les auteurs de la proposition de loi ont également évoqué le risque réel et bien documenté de biais pouvant constituer une discrimination illégale découlant des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle. La Convention-cadre exige des Parties qu’elles envisagent des solutions réglementaires, de gouvernance, techniques ou autres appropriées pour traiter les différentes manières dont les biais peuvent être intentionnellement ou involontairement incorporés dans les systèmes d’intelligence artificielle à différents stades de leur cycle de vie. Les questions suivantes ont été bien documentées en ce qui concerne certains systèmes d’intelligence artificielle :
a)les biais potentiels des développeurs de l’algorithme (par exemple, en raison des stéréotypes ou des biais conscients ou inconscients des développeurs) ;
b)les biais potentiels intégrés dans le modèle sur lequel les systèmes sont construits ;
c)les biais potentiels inhérents aux ensembles de données de formation utilisés (par exemple, lorsque l’ensemble de données est inexact ou insuffisamment représentatif), ou à l’agrégation ou à l’évaluation des données (par exemple, lorsque des groupes sont combinés de manière inappropriée, ou lorsque les données de référence utilisées pour comparer le modèle à d’autres modèles ne représentent pas suffisamment la population que le modèle devrait servir) ;
d)les biais introduits lorsque de tels systèmes sont mis en œuvre dans des environnements réels (par exemple, l’exposition à un environnement biaisé une fois qu’il est utilisé, ou en raison d’une utilisation biaisée du système d’intelligence artificielle, d’une utilisation malveillante ou d’attaques qui introduisent intentionnellement des biais en manipulant le système d’intelligence artificielle) ou lorsque l’intelligence artificielle évolue par auto-apprentissage en raison d’erreurs et de déficiences dans la détermination des paramètres de fonctionnement et d’apprentissage de l’algorithme, ou
e)l’automatisation ou les biais de confirmation, par lesquels les humains peuvent placer une confiance injustifiée dans les machines et les artefacts technologiques ou dans des situations où ils sélectionnent des informations qui soutiennent leurs propres points de vue, dans les deux cas en ignorant leur propre jugement potentiellement contradictoire et en validant les résultats algorithmiques sans les remettre en question.
76. Les questions d’égalité dans le contexte spécifique de l’intelligence artificielle incluent des catégories relativement nouvelles de problèmes tels que les ‘biais techniques’, qui résultent de problèmes dans l’application de l’apprentissage automatique qui entraîne des biais supplémentaires qui ne sont pas présents dans les données utilisées pour former le système ou prendre des décisions ; et les ‘biais sociaux’, c’est-à-dire des défauts de prise en compte correcte des inégalités historiques ou actuelles dans la société dans les activités au sein du cycle de vie des systèmes d’intelligence artificielle, telles que la conception et les modèles de formation. Ces inégalités incluent, par exemple, les obstacles historiques et structurels à l’égalité et au traitement juste et équitable des personnes appartenant à des groupes qui ont été ou sont encore en partie non protégés, discriminés contre, ou soumis d’une autre manière à des inégalités persistantes. Ces questions incluent également la reconnaissance que les différents individus subissent des impacts différents en fonction de facteurs liés à leurs caractéristiques personnelles,
circonstances ou l’appartenance à un groupe, y compris celles couvertes par les instruments pertinents et applicables mentionnés aux paragraphes 72 et 73 du Rapport explicatif, tels qu’interprétés par la jurisprudence et les pratiques pertinentes de la Cour internationale de justice.
n droits de l’homme.77. La disposition précise que l’approche requise par cet article ne doit pas s’arrêter au simple fait d’exiger qu’une personne ne soit pas traitée moins favorablement “sans justification objective et raisonnable” sur la base d’une ou plusieurs caractéristiques protégées qu’elle possède dans des domaines pertinents d’un secteur protégé. Les Parties s’engagent à adopter de nouvelles mesures ou à maintenir les mesures existantes visant à surmonter les inégalités structurelles et historiques.
ies, dans la mesure permise par ses lois nationales et internationales.
Les processus d’évaluation et d’approbation des obligations internationales en matière de droits de l’homme et, en outre, ces processus devraient, le cas échéant, être informés des points de vue de ceux qui sont affectés.78. Conscients des différences conceptuelles, doctrinales, juridiques et techniques entre les façons dont ces questions sont abordées dans les systèmes juridiques nationaux des différentes Parties et afin de fournir aux Parties la flexibilité nécessaire à cet égard, les auteurs du projet ont inséré une formulation qui permet à chaque Partie de se conformer à l’obligation énoncée au paragraphe 2 de l’article 10 conformément à ses propres obligations et engagements nationaux et internationaux en matière de droits de l’homme en appliquant les cadres existants applicables au contexte des activités relevant du cycle de vie des systèmes d’intelligence artificielle.
a. les droits à la vie privée des individus et leurs données personnelles sont protégés, y compris par les lois, normes et cadres nationaux et internationaux applicables ; et
b.des garanties et des sauvegardes effectives ont été mises en place pour les individus, conformément aux obligations légales nationales et internationales applicables.
Rapport explicatif
79. La protection des droits à la vie privée et des données personnelles est un principe commun nécessaire à la mise en œuvre effective de nombreux autres principes de la présente Convention-cadre. La collecte de données personnelles est déjà omniprésente, non seulement comme base de modèles d’entreprise dans de nombreux secteurs, mais aussi comme l’une des activités clés des agences gouvernementales, y compris les autorités chargées de l’application des lois, qui utilisent une variété de technologies et de systèmes automatisés qui collectent, traitent et génèrent des données personnelles dans le cadre de processus décisionnels qui ont un impact direct sur la vie des personnes. Les systèmes d’intelligence artificielle étant principalement axés sur les données, en l’absence de garanties appropriées, les activités qui tombent dans le cycle de vie de ces systèmes pourraient poser de sérieux risques pour la vie privée des individus.
80. Malgré quelques différences dans les traditions juridiques, les règles spécifiques et les mécanismes de protection, les États qui ont négocié la Convention-cadre partagent un engagement fort en faveur de la protection de la vie privée, par exemple, tel qu’énoncé au niveau mondial dans l’article 17 de l’ICCPR et au niveau régional dans l’article 8 de la CEDH, l’article 8 de la Charte de l’UE et l’article 11 du Pacte de San José.
81. Au cœur de ces droits, les droits à la vie privée des individus comportent des éléments qui se chevauchent partiellement, avec des degrés variables de reconnaissance juridique et de protection dans toutes les juridictions, tels que : (1) intérêt protégé à limiter l’accès aux expériences et engagements de vie d’un individu (2) intérêt protégé au secret de certaines questions personnelles (3) degré de contrôle sur les informations et données personnelles (4) protection de la personnalité (individualité ou identité, dignité, autonomie individuelle) et (5) protection de l’intimité et de l’intégrité physique, psychologique ou morale. La disposition souligne ces différentes approches en mettant l’accent sur certaines des principales similitudes dans ce domaine, même si elle n’a pas pour but de préconiser ou d’exiger des mesures réglementaires particulières dans une juridiction donnée.
82. Compte tenu du rôle essentiel que joue la protection des données à caractère personnel dans la garantie des droits à la vie privée et des autres droits de l’homme dans le monde numérique, les auteurs de la proposition ont fait une mention spécifique dans le texte de la disposition relative aux lois, normes et cadres nationaux et internationaux dans le domaine de la protection des données à caractère personnel. Afin de souligner leur importance dans la garantie d’une protection efficace dans le contexte de l’intelligence artificielle, l’article 11, paragraphe (b), fait également explicitement référence à d’autres “garanties et protections” dont les individus (également appelés “sujets de données” dans certaines juridictions) bénéficient généralement en vertu de ces lois, normes et cadres. Les auteurs de la proposition considèrent que cette obligation impose aux parties de prendre des mesures pour protéger la vie privée.
83. L’un de ces instruments est la Convention 108+ du Conseil de l’Europe, qui couvre à la fois les secteurs public et privé et qui est ouverte à l’adhésion des États au niveau mondial. Au niveau de l’UE, le Règlement général sur la protection des données (Règlement (UE) 2016/679, “RGPD”) est une loi complète sur la protection des données qui s’applique aux personnes physiques ou morales qui traitent des données personnelles appartenant à des personnes physiques dans l’Union européenne, que le traitement ait lieu dans l’Union européenne ou non. Au niveau national, la plupart des États qui ont négocié la Convention-cadre ont des lois dédiées à la protection des données personnelles ou de la vie privée et souvent des autorités spécialisées chargées de superviser correctement les règles et réglementations pertinentes.
Rapport explicatif
84. Cette disposition met l’accent sur le rôle potentiel que peuvent jouer les normes, les spécifications techniques, les techniques d’assurance et les régimes de conformité dans l’évaluation et la vérification de la fiabilité des systèmes d’intelligence artificielle et dans la documentation et la communication transparentes des preuves de ce processus. Les normes, en particulier, pourraient fournir une base fiable pour partager des attentes communes sur certains aspects d’un produit, d’un processus, d’un système ou d’un service dans le but d’établir une confiance justifiée dans la fiabilité d’un système d’intelligence artificielle si son développement et son utilisation sont conformes à ces normes.
85. Cette disposition souligne l’importance de l’établissement de mesures visant à assurer la fiabilité des systèmes d’intelligence artificielle par le biais de mesures portant sur des aspects clés du fonctionnement tels que la robustesse, la sécurité, la sûreté, l’exactitude et la performance, ainsi que sur des exigences fonctionnelles telles que la qualité et l’exactitude des données, l’intégrité des données, la sécurité des données et la cybersécurité. Les normes, les exigences, les systèmes d’assurance et de conformité pertinents peuvent couvrir ces éléments en tant que condition préalable à la construction réussie d’une confiance publique justifiée dans les technologies de l’intelligence artificielle.
86. Les normes techniques peuvent aider à fournir une assurance et une conformité en matière d’intelligence artificielle mutuellement acceptées et évolutives, tout en veillant à ce qu’elles soient élaborées dans le cadre d’un processus transparent et inclusif qui encourage la cohérence avec les instruments internationaux et nationaux applicables en matière de droits de l’homme.
87. En outre, les mesures à adopter ou à maintenir en vertu de cette disposition devraient viser à garantir que, comme tout autre système logiciel, les systèmes d’intelligence artificielle sont “sûrs et sécurisés dès la conception”, ce qui signifie que les acteurs de l’intelligence artificielle concernés devraient considérer la sécurité et la sûreté comme des exigences fondamentales, et pas seulement comme des caractéristiques techniques. Ils devraient donner la priorité à la sécurité et à la sûreté tout au long du cycle de vie du système d’intelligence artificielle.
88. Dans certains cas, il peut ne pas être suffisant d’établir des normes et des règles sur les activités du cycle de vie des systèmes d’intelligence artificielle. Les mesures visant à promouvoir la fiabilité peuvent donc inclure, en fonction du contexte, la fourniture aux parties prenantes concernées d’informations claires et fiables sur la question de savoir si les acteurs de l’intelligence artificielle ont respecté ces exigences dans la pratique. Cela implique d’assurer, le cas échéant, une responsabilité de bout en bout par le biais de la transparence des processus et des protocoles de documentation. Il existe un lien clair entre ce principe et le principe de transparence et de contrôle de l’article 8 et le principe de responsabilité de l’article 9.
89. Les systèmes d’assurance et de conformité sont importants à la fois pour garantir la conformité aux règles et aux réglementations et pour faciliter l’évaluation de risques plus ouverts, lorsque les règles et les réglementations ne suffisent pas à elles seules à garantir la fiabilité d’un système. Dans ce contexte, les normes techniques fondées sur le consensus ont un rôle important à jouer pour combler les lacunes et fournir des conseils sur la réduction des risques d’un point de vue technique (voir également le commentaire de l’article 16 aux paragraphes 105 et 112 ci-dessous).
Rapport explicatif
90. Cette disposition met l’accent sur un thème important qui se trouve au cœur de l’approche de la Convention-cadre : les parties devraient s’efforcer de promouvoir et de stimuler l’innovation dans le respect des droits de l’homme, de la démocratie et de l’État de droit. Un moyen approprié de stimuler l’innovation responsable en matière d’intelligence artificielle est de permettre aux autorités du secteur d’activité concerné de mettre en place des “environnements contrôlés” ou des “cadres” permettant le développement, la formation, l’expérimentation en direct et le test des innovations sous la supervision directe des autorités compétentes, en particulier pour encourager l’intégration des questions de qualité, de respect de la vie privée et d’autres droits de l’homme, ainsi que des questions de sécurité et de sûreté, dès les premières étapes. Cela est d’autant plus important que certains risques liés aux systèmes d’intelligence artificielle ne peuvent être efficacement abordés qu’au stade de la conception.
91. Il est également important de reconnaître que certains développeurs d’intelligence artificielle, y compris ceux qui ont une mission d’intérêt public, ne peuvent pas poursuivre leur innovation sans être raisonnablement certains qu’elle n’aura pas de conséquences néfastes et sans intégrer des garanties appropriées pour atténuer les risques dans un environnement contrôlé. Étant donné que l’innovation est essentiellement collaborative et dépendante du chemin emprunté, avec de nouveaux systèmes construits sur ce qui a été fait auparavant, il y a un risque que cette innovation soit empêchée parce qu’elle ne peut pas utiliser de la même manière ou se baser sur des innovations existantes qui ne sont pas suffisamment sûres. Cette disposition n’a pas pour but de freiner l’innovation mais reconnaît que l’innovation peut être façonnée autant par les gouvernements que par les entreprises.
lation que par l’absence de celle-ci. L’échec de la création d’un environnement dans lequel l’innovation responsable peut s’épanouir risque d’étouffer ce type d’innovation et de laisser le champ libre à des approches plus irrévérencieuses.
92. Compte tenu de la diversité et de la complexité sous-jacente des systèmes juridiques et des traditions réglementaires dans les États qui ont négocié la convention-cadre, la disposition laisse les détails spécifiques des arrangements pertinents aux parties, à condition que les régimes mis en place en vertu de cette disposition soient conformes à l’exigence d’ ”éviter toute incidence négative sur les droits de l’homme, la démocratie et l’État de droit”. Une approche pour atteindre ces objectifs est, par exemple, les “sandboxes réglementaires” qui visent à promouvoir l’innovation, à fournir une certitude juridique et à permettre l’apprentissage réglementaire. D’autres approches comprennent des conseils réglementaires spéciaux ou des lettres d’inaction pour clarifier la manière dont les régulateurs vont aborder la conception, le développement ou l’utilisation de systèmes d’intelligence artificielle dans de nouveaux contextes.
93. Les approches mises en évidence par cette disposition offrent de nombreux avantages, particulièrement adaptés dans le cas des systèmes d’intelligence artificielle, le rythme rapide de leur développement et le caractère omniprésent de leur utilisation :
1) En permettant le développement contrôlé et le test, la validation et la vérification des systèmes d’intelligence artificielle, de telles approches peuvent aider à identifier les risques et les problèmes potentiels associés aux systèmes d’intelligence artificielle dès le début du processus de développement. Cette approche proactive peut permettre aux développeurs de répondre aux préoccupations avant le déploiement à grande échelle. Les sandboxes ou l’émission de conseils réglementaires informels, par exemple, fournissent un environnement qui simule des conditions réelles, permettant le développement et des tests plutôt réalistes des applications d’intelligence artificielle. Cela peut aider à découvrir des défis qui ne seraient pas évidents dans des environnements de test isolés et permet une coopération avec les autorités compétentes à des étapes antérieures du cycle de vie de l’innovation.
2) Ces approches facilitent le partage des connaissances entre les entités privées, les régulateurs et les autres parties prenantes. Ces environnements collaboratifs peuvent favoriser une meilleure compréhension des technologies de l’intelligence artificielle, de leurs implications et des approches potentielles de la gouvernance, et fournir une certitude juridique aux innovateurs et les soutenir dans leur parcours de mise en conformité.
3) Les technologies de l’intelligence artificielle évoluent rapidement, et les cadres réglementaires traditionnels peuvent avoir du mal à suivre le rythme. De telles approches permettent d’apprendre les opportunités et les risques d’une innovation à un stade précoce et fournissent des preuves à des fins d’apprentissage réglementaire et peuvent offrir une flexibilité pour les réglementations et les technologies à tester afin de vérifier leur adaptabilité au paysage changeant de l’intelligence artificielle. Sur la base des résultats obtenus, le cadre peut être interprété pour tenir compte de ces nouveaux défis et des contextes spécifiques, mis en œuvre plus efficacement ou, le cas échéant, ajusté.
4) De tels environnements peuvent permettre aux régulateurs d’expérimenter différentes approches réglementaires et d’évaluer leur efficacité à garantir le respect des droits de l’homme, de la démocratie et de l’ordre juridique, ainsi qu’à prévenir et à atténuer les effets négatifs sur ceux-ci. Ce processus itératif peut aider les régulateurs à élaborer des politiques informées qui établissent un équilibre entre la promotion de l’innovation et la protection de l’intérêt public.
5) L’existence de telles approches peut renforcer la confiance du public et de l’industrie en démontrant que les régulateurs sont activement engagés dans la compréhension et le contrôle des technologies d’intelligence artificielle afin d’assurer le respect des droits de l’homme, de la démocratie et de l’état de droit. Cette transparence contribue à bâtir la confiance dans le développement et le déploiement responsables de l’intelligence artificielle.
6) Ces approches permettent aux organisations qui développent et déploient des systèmes d’intelligence artificielle, qui pourraient également inclure d’autres parties prenantes, le cas échéant, de travailler étroitement avec les régulateurs pour comprendre et respecter les exigences de conformité. Cette approche collaborative aide à rationaliser le processus réglementaire et la conformité, ce qui est particulièrement utile pour les petites entreprises qui ne disposent pas des ressources nécessaires.
94. Étant donné que les obligations énoncées dans le présent chapitre sont destinées à compléter le régime juridique international et national applicable de chaque Partie en matière de protection des droits de l’homme, qui comprend non seulement des règles et des procédures spécifiques, mais aussi diverses institutions et des mécanismes de surveillance et d’application, la mise en œuvre des obligations énoncées dans le présent chapitre devrait être effectuée par chaque Partie en appliquant ses cadres existants dans le contexte des systèmes d’intelligence artificielle. Ce faisant, les Parties devraient garder à l’esprit l’objet et le but de la Convention-cadre, qui est de
veiller à ce que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle soient pleinement conformes aux droits de l’homme, à la démocratie et à la primauté du droit.
1. Chaque Partie, dans la mesure où des recours sont requis par ses obligations internationales et conformément à son système juridique interne, adopte ou maintient des mesures visant à garantir l’accessibilité et l’efficacité des recours en cas de violations des droits de l’homme.
an droits résultant des activités dans le cadre du cycle de vie de l’artificiel en
telligence systems.
2. Dans le but de soutenir le paragraphe 1 ci-dessus, chaque partie adopte ou maintient des mesures, y compris
a. des mesures visant à garantir que les informations pertinentes concernant les systèmes d’intelligence artificielle susceptibles d’avoir une incidence significative sur les droits de l’homme et leur utilisation pertinente sont documentées, mises à la disposition des organismes autorisés à accéder à ces informations et, le cas échéant et selon le cas, mises à disposition ou communiquées aux personnes concernées ;
b.des mesures visant à garantir que les informations visées au point a) sont suffisantes pour permettre aux personnes concernées de comprendre la ou les décisions prises ou d’être substantiellement informées de l’utilisation du système et, le cas échéant et de manière appropriée, de l’utilisation du système lui-même ; et
c.une possibilité effective pour les personnes concernées de déposer une plainte auprès des autorités compétentes.
Rapport explicatif
95. Comme mentionné précédemment, chaque Partie dispose déjà de cadres existants en matière de droits de l’homme, de démocratie et de règle de droit. La Convention-cadre exige des Parties qu’elles appliquent ces cadres existants dans le contexte des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle.
96. En raison de certaines caractéristiques uniques des systèmes d’intelligence artificielle, telles que leur complexité technique, leur caractère axé sur les données et l’opacité relative des opérations de certains de ces systèmes, les interactions humaines avec les systèmes d’intelligence artificielle ont été affectées par le problème de l’opacité des systèmes d’intelligence artificielle et de l’asymétrie d’information, c’est-à-dire un déséquilibre significatif dans l’accès, la compréhension ou le contrôle de l’information entre les différentes parties impliquées dans les activités au sein du cycle de vie des systèmes d’intelligence artificielle.
97. Ce problème est particulièrement aigu dans les situations où les droits de l’homme sont défavorablement affectés par les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, car les personnes concernées ou potentiellement concernées peuvent ne pas être au courant de tels impacts ou disposer des informations nécessaires pour exercer leurs droits dans ce contexte, ou encore se priver de procédures et de garanties pertinentes.
98. C’est pourquoi cette disposition rappelle le principe selon lequel un remède doit être à la fois efficace et accessible. Pour être efficace, le remède doit être capable de remédier directement aux situations de privation de liberté et, pour être accessible, il doit être disponible avec des garanties procédurales suffisantes en place pour rendre le remède significatif pour la personne concernée. Afin de souligner le lien et d’assurer la complémentarité avec les mécanismes internationaux et nationaux de protection des droits de l’homme en vigueur, la disposition utilise la terminologie juridique mentionnée à l’article 2 du PIDCP, à l’article 13 de la CEDH et à l’article 25 du Pacte de San José. Le terme de “violations des droits de l’homme” utilisé dans le premier paragraphe de cette disposition se réfère aux notions bien établies contenues dans l’article 2 du PIDCP, les articles 13, 34, 41 et 46 de la CEDH et les articles 25 et 63 du Pacte de San José, si et comme applicables aux futures parties respectives à cette convention-cadre (voir le commentaire au paragraphe 67 ci-dessus).
99. Conformément aux principes énoncés aux articles 8 (principe de transparence et de contrôle) et 9 (principe de responsabilité), l’article 14 de la Convention-cadre exige des Parties qu’elles adoptent ou maintiennent des mesures spécifiques pour documenter et mettre à la disposition des personnes concernées certaines informations afin de soutenir l’objectif d’offrir des recours disponibles, accessibles et efficaces en cas de violations des droits de l’homme dans le cadre des activités du cycle de vie d’un système d’intelligence artificielle. Le contenu pertinent des mesures relatives à l’information devrait être adapté au contexte, suffisamment clair et pertinent, et, de manière critique, fournir à une personne concernée une capacité effective d’utiliser l’information en question pour exercer ses droits dans le cadre de la procédure relative aux décisions pertinentes affectant ses droits humains. Il est également important de rappeler que des exceptions, des limitations ou des dérogations à ces obligations de transparence sont possibles dans l’intérêt de l’ordre public, de la sécurité et d’autres intérêts publics importants tels que prévus par les instruments internationaux applicables en matière de droits de l’homme et, le cas échéant, pour satisfaire à ces objectifs.
100. En ce qui concerne les violations des droits de l’homme résultant des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, il est également important de fournir aux personnes concernées une possibilité effective de déposer une plainte auprès des autorités compétentes, comme le prévoit l’article 14, paragraphe 2, alinéa (c) de la Convention-cadre. Dans certaines situations, un recours effectif peut inclure des plaintes déposées par des organisations d’intérêt public, conformément au système juridique national d’une Partie.
101. Les auteurs du projet de loi ont souhaité souligner que les expressions “affectent de manière significative les droits de l’homme” au paragraphe (a) du deuxième alinéa de l’article 14 et “affectent de manière significative la jouissance des droits de l’homme” au paragraphe 1 de l’article 15 introduisent toutes deux une exigence de seuil, ce qui signifie que (1) les exigences pertinentes des articles 14 et 15 ne s’appliquent pas automatiquement à tous les systèmes d’intelligence artificielle relevant du champ d’application de l’article 3 de la convention-cadre ; (2) que les systèmes d’intelligence artificielle qui n’ont pas d’effet ou d’impact significatif sur les droits de l’homme ne relèvent pas du champ d’application des nouvelles obligations spécifiques énoncées dans cet article ; et (3) qu’il appartient aux parties à la convention-cadre d’examiner si, compte tenu de leur droit international et national existant en matière de droits de l’homme et du contexte et des autres circonstances pertinentes en ce qui concerne un système d’intelligence artificielle donné, ce système peut être considéré comme ayant un “effet significatif” ou un “impact significatif” sur les droits de l’homme.
102. De même, l’expression “substantiellement informé par l’utilisation du système [d’intelligence artificielle]” au paragraphe (b) de l’article 14 est censée introduire une exigence de seuil qui souligne que toute utilisation d’un système artificiel dans la prise de décision ne déclenche pas l’application du paragraphe (b), et ces mesures ne devraient s’appliquer que dans les cas où la décision a été au moins “substantiellement informée” par l’utilisation du système. Il appartient aux Parties à la Convention-cadre de définir le sens de cette expression, conformément à leur droit international et national applicable en matière de droits de l’homme.
1. Chaque Partie veille à ce que, lorsqu’un système d’intelligence artificielle a un impact significatif sur la jouissance des droits de l’homme, des garanties procédurales effectives, des sauvegardes et des droits, conformément au droit international et national applicable, soient mis à la disposition des personnes ainsi affectées.
2. Chaque Partie s’efforce de faire en sorte que, dans la mesure appropriée au contexte, les personnes qui interagissent avec des systèmes d’intelligence artificielle soient informées qu’elles interagissent avec de tels systèmes plutôt qu’avec un être humain.
Rapport explicatif
103. Le paragraphe 1 de l’article 15 établit une obligation distincte pour les Parties de veiller à ce que les garanties procédurales, les sauvegardes et les droits existants prescrits par le droit international et national applicable en matière de droits de l’homme restent disponibles et effectifs dans le contexte de l’intelligence artificielle. Lorsqu’un système d’intelligence artificielle informe de manière substantielle ou prend des décisions ayant une incidence sur les droits de l’homme, des garanties effectives en matière de procédure devraient, par exemple, inclure une supervision humaine, y compris un examen ex ante ou ex post de la décision par des êtres humains. Le cas échéant, ces mesures de contrôle humain devraient garantir que le système d’intelligence artificielle est soumis à des contraintes opérationnelles intégrées qui ne peuvent pas être dépassées par le système lui-même et qu’il est sensible à l’opérateur humain, et que les personnes physiques auxquelles le contrôle humain a été attribué ont les compétences, la formation et l’autorité nécessaires pour s’acquitter de cette tâche.
104. Le paragraphe 2 de l’article 15 traite spécifiquement des situations d’interaction humaine directe avec un système d’intelligence artificielle. Dans de tels cas et lorsque
re approprié en tenant compte des circonstances et du contexte d’utilisation, et en vue notamment d’éviter le risque de manipulation et de tromperie, les personnes interagissant avec un système d’intelligence artificielle devraient être dûment informées qu’elles interagissent avec un système d’intelligence artificielle plutôt qu’avec un être humain. Par exemple, les interactions avec des chatbots dotés d’une intelligence artificielle sur des sites web gouvernementaux déclencheraient probablement l’obligation de notification prévue par cette disposition. At the same time, this obligation is not intended, for example, to cover situations where the very purpose of the use of the system would be countertacted by the notification (law enforcement scenarios) or where the use of the system is obvious from the context, which renders notification unnecessary.
1. Chaque Partie, compte tenu des principes énoncés au chapitre III, adopte ou peut adopter des mesures d’exécution.
ntain measures for the identification, assessment, prevention and mitigation of risks posed by artificial intelligence systems by considering actual and potential impacts on human rights, democracy and the rule of law.
2. Ces mesures doivent être graduées et différenciées, le cas échéant, et :
a. tiennent dûment compte du contexte et de l’utilisation prévue des systèmes d’intelligence artificielle, en particulier en ce qui concerne les risques pour les droits de l’homme, la démocratie et l’État de droit ;
b.tenir dûment compte de la gravité et de la probabilité des impacts potentiels ;
c.prennent en considération, le cas échéant, le point de vue des parties prenantes concernées, en particulier des personnes dont les droits peuvent être affectés ;
d.appliquer de manière itérative tout au long des activités du cycle de vie du système d’intelligence artificielle ;
e.incluent le suivi des risques et des effets négatifs sur les droits de l’homme, la démocratie et le respect de la loi ;
f.incluent la documentation sur les risques, les impacts réels et potentiels, et l’approche de gestion des risques ; et
g.exigent, le cas échéant, que les systèmes d’intelligence artificielle soient testés avant d’être mis à disposition pour une première utilisation et lorsqu’ils sont modifiés de manière significative ;
3. Chaque partie doit ajouter
optent pour des mesures ou maintiennent des mesures visant à garantir que les incidences négatives des systèmes d’intelligence artificielle sur les droits de l’homme, la démocratie et l’État de droit sont traitées de manière appropriée. Ces effets négatifs et les mesures prises pour y remédier doivent être documentés et informer les mesures pertinentes de gestion des risques décrites au paragraphe 2.
4. Chaque Partie évalue la nécessité d’un moratoire ou d’une interdiction ou d’autres mesures appropriées à l’égard de certaines utilisations de systèmes d’intelligence artificielle lorsqu’elle considère que de telles utilisations sont incompatibles avec le respect des droits de l’homme, le fonctionnement de la démocratie ou le respect de la loi.
Rapport explicatif
105. Afin de tenir compte du caractère itératif des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle et d’assurer l’efficacité des mesures prises par les Parties, la Convention-cadre prévoit une disposition prescrivant d’identifier, d’évaluer, de prévenir et d’atténuer ex ante et, le cas échéant, de manière itérative, les risques pertinents et les incidences potentielles sur les droits de l’homme, la démocratie et le respect du droit, en suivant et en permettant l’élaboration d’une méthodologie comportant des critères concrets et objectifs pour de telles évaluations. Ces obligations sont l’un des outils essentiels pour permettre la mise en œuvre des exigences de la Convention-cadre et des chapitres II et III en particulier et devraient être mises en œuvre par les Parties à la lumière de tous les principes pertinents, y compris les principes de transparence et de contrôle ainsi que le principe de responsabilité et d’obligation de rendre compte.
106. L’objectif de cette disposition est d’assurer une approche uniforme de l’identification, de l’analyse et de l’évaluation de ces risques et de l’évaluation de l’impact de ces systèmes. En même temps, elle se fonde sur l’hypothèse que les parties sont les mieux placées pour faire des choix réglementaires pertinents, en tenant compte de leurs contextes juridiques, politiques, économiques, sociaux, culturels et technologiques spécifiques, et qu’elles devraient donc bénéficier d’une certaine flexibilité en ce qui concerne la gouvernance et la réglementation effectives qui accompagnent les processus.
107. C’est la principale raison pour laquelle la disposition mentionne des mesures graduées et différenciées qui doivent tenir dûment compte du “contexte et de l’utilisation prévue des systèmes d’intelligence artificielle”, ce qui permet aux Parties une certaine flexibilité dans les approches et les méthodologies qu’elles choisissent pour effectuer cette évaluation. En particulier, les Parties peuvent choisir de mettre en œuvre cette évaluation aux différents niveaux, par exemple au niveau réglementaire en prescrivant différentes catégories de classification des risques et/ou au niveau opérationnel par des acteurs pertinents assignés à des responsabilités dans le cadre du cycle de vie des systèmes d’intelligence artificielle. Les Parties peuvent également choisir de se concentrer, au niveau opérationnel, uniquement sur certaines catégories prédéfinies de systèmes d’intelligence artificielle, conformément à l’approche graduée et différenciée visant à maintenir la charge et les obligations proportionnelles aux risques (article 16, paragraphe 2, alinéa (a)). Les Parties pourraient également examiner la capacité de différentes catégories d’acteurs du secteur privé à répondre à ces exigences, en particulier celles concernant la documentation et la communication avec les autorités et les parties prenantes concernées, et si possible et de manière appropriée, les adapter en conséquence.
108. Les auteurs du projet de loi ont également souhaité préciser que, parallèlement aux risques pour les droits de l’homme, la démocratie et l’État de droit, les évaluations peuvent, le cas échéant, tenir dûment compte de la nécessité de préserver un environnement sain et durable, ainsi que des avantages escomptés pour la société dans son ensemble et des effets positifs sur les droits de l’homme, la démocratie et l’État de droit. Des facteurs tels que la “gravité”, la “probabilité”, la durée et la réversibilité des risques et des impacts sont également très importants dans le contexte de l’intelligence artificielle et devraient être pris en compte dans le cadre de gestion des risques (article 16, paragraphe 2, alinéa (b)), en particulier lors de l’identification et de l’évaluation des risques et des impacts potentiels. En outre, il est important de préciser que l’exigence de prendre en compte le point de vue des personnes dont les droits peuvent être affectés, selon le contexte, dans la mesure du possible et, le cas échéant, implique de considérer le point de vue d’une variété de parties prenantes pertinentes, telles que des experts techniques extérieurs et la société civile (article 16, paragraphe 2, alinéa (c)).
109. La disposition se fonde également sur l’idée que l’évaluation des risques au début du cycle de vie du système d’intelligence artificielle n’est qu’une première étape, bien que critique, dans un processus beaucoup plus long, de bout en bout, d’évaluation et de réévaluation responsables (article 16, paragraphe 2, alinéa (d)). Dans le processus d’évaluation des risques et des impacts, il convient de prêter attention à la fois au caractère dynamique et changeant des activités au sein du cycle de vie des systèmes d’intelligence artificielle et aux conditions changeantes des environnements du monde réel dans lesquels les systèmes sont destinés à être déployés. La disposition introduit en outre des exigences concernant non seulement t
e documenter les informations pertinentes pendant les processus de gestion des risques, mais aussi
l’application de mesures préventives et d’atténuation suffisantes à l’égard des risques et impacts identifiés. Il est important pour l’exigence d’une documentation correcte des processus de gestion des risques et des impacts, prévue à l’article 16, paragraphe 2, alinéa (f), de jouer son rôle dans l’identification, l’évaluation, la prévention et l’atténuation des risques ou des impacts négatifs sur les droits de l’homme, la démocratie ou l’État de droit qui surviennent au cours du cycle de vie des systèmes d’intelligence artificielle. La documentation technique et la documentation sur les risques et les effets négatifs devraient être correctement établies et régulièrement mises à jour. Le cas échéant, la documentation peut inclure des rapports publics sur les effets négatifs. Les tests (article 16, paragraphe 2, alinéa (g)) peuvent inclure la mise à disposition d’auditeurs indépendants ayant accès à certains aspects des systèmes d’intelligence artificielle.110. Le paragraphe 3 de l’article 16 prescrit également l’application de mesures en fonction des risques et des impacts identifiés, afin de traiter de manière adéquate les effets négatifs des systèmes d’intelligence artificielle sur les droits de l’homme, la démocratie et l’État de droit.
111. Le paragraphe 4 de l’article 16 stipule que les parties à la convention-cadre évaluent la nécessité de moratoires, d’interdictions ou d’autres mesures appropriées concernant les utilisations de systèmes d’intelligence artificielle qu’elles considèrent comme “incompatibles” avec le respect des droits de l’homme, de la démocratie et de la règle de droit. La détermination de ce qui est “incompatible” dans ce contexte est faite par chaque Partie, tout comme l’évaluation de la question de savoir si un tel scénario nécessiterait un moratoire ou une interdiction, d’une part, ou une autre mesure appropriée, d’autre part. Sans mesures interdisant, limitant ou réglementant d’une autre manière l’utilisation de systèmes d’intelligence artificielle dans ces circonstances, de telles utilisations pourraient poser des risques excessifs pour les droits de l’homme, la démocratie et l’État de droit.
112. Bien que cette disposition laisse à chaque Partie le soin de préciser les modalités d’application des moratoires, interdictions ou autres mesures appropriées, compte tenu de leur gravité, des mesures telles que des moratoires ou des interdictions ne devraient être envisagées que dans des circonstances où une Partie estime qu’une utilisation particulière d’un système d’intelligence artificielle présente un risque inacceptable pour les droits de l’homme, la démocratie ou l’État de droit. Une autre considération pourrait inclure, par exemple, un examen attentif des mesures disponibles pour atténuer ce risque. Ces mesures devraient également être accompagnées de procédures de révision organisées de manière appropriée afin de permettre leur mise à jour, y compris leur éventuelle inversion (par exemple, lorsque des risques pertinents ont été suffisamment réduits ou que des mesures de mitigation appropriées sont devenues disponibles, ou lorsque de nouvelles pratiques inacceptables ont été identifiées). Les auteurs du projet de loi soulignent également l’importance des consultations publiques lors de l’examen des mesures prévues dans le cadre de cette disposition.
Rapport explicatif
113. Cet article interdit la discrimination dans la mise en œuvre de la convention-cadre par les parties. Le sens de la discrimination figurant à l’article 17 est identique à celui qui est donné dans le droit international applicable, tel que, entre autres, l’article 26 du PIDCP, l’article 2 du PIDESC, l’article 14 de la CEDH et son protocole n° 12, l’article 24 du Pacte de San José et l’article E de la CED, si et dans la mesure où il est applicable aux parties à la convention-cadre.
114. Prises ensemble, ces dispositions couvrent un large éventail de motifs de non-discrimination liés aux caractéristiques personnelles des individus, à leur situation ou à leur appartenance à un groupe, y compris ceux couverts par les instruments pertinents et applicables mentionnés aux paragraphes 72 et 73 du Rapport explicatif, tels qu’interprétés par la jurisprudence et les pratiques pertinentes des organes internationaux de protection des droits de l’homme.
115. Tous ces motifs ne sont pas explicitement énoncés ou formulés de manière identique dans les traités sur les droits de l’homme par lesquels les parties à la présente convention-cadre peuvent être liées. Ces traités contiennent généralement des listes ouvertes de tels motifs, telles qu’interprétées par la jurisprudence des juridictions internationales compétentes, telles que les Cours européennes et interaméricaines des droits de l’homme, et dans la pratique pertinente des organes internationaux compétents, tels que le Comité des droits de l’homme des Nations unies. Il peut donc y avoir des variations entre les différents régimes internationaux de droits de l’homme applicables aux différentes parties. Comme pour d’autres conventions et traités relatifs aux droits de l’homme, l’approche de la Convention-cadre n’est pas de créer de nouvelles obligations en matière de droits de l’homme ni de réduire, d’étendre ou de modifier d’une autre manière le champ d’application ou le contenu des obligations internationales en matière de droits de l’homme applicables à une Partie (voir le commentaire de l’article 1er , au paragraphe 13 ci-dessus).
Rapport explicatif
116. Cette disposition établit l’obligation pour les Parties, dans le cadre des activités du cycle de vie des systèmes d’intelligence artificielle, de tenir dûment compte des “besoins spécifiques et des vulnérabilités en ce qui concerne le respect des droits des personnes handicapées et des enfants” et, à cet égard, elle est en corrélation directe avec les dispositions et le régime juridique de la CNUDPH et de la CNUCC ainsi qu’avec le droit interne applicable de chaque Partie en matière de droits des personnes handicapées et de droits de l’enfant. Une référence explicite à la législation nationale applicable aux droits de l’enfant et aux droits des personnes handicapées a été insérée, en particulier pour tenir compte de la situation de toute Partie à la Convention-cadre qui n’a pas ratifié la CNUDE ou la CNUDPH, mais qui dispose néanmoins d’une législation nationale garantissant la jouissance de ces droits.
117. La référence au droit national dans cette disposition vise uniquement à mettre l’accent sur les dispositions du droit national qui offrent le niveau de protection dans le contexte pertinent, similaire ou complémentaire à celui de la CNUDPH ou de la CNUCC, et cette référence ne peut être invoquée par une Partie pour justifier son manquement à l’exécution de cette obligation conventionnelle. L’objectif est donc de garantir le plus haut niveau possible de prise en compte des besoins spécifiques et des vulnérabilités en ce qui concerne le respect des droits des personnes handicapées et des enfants, y compris la formation à l’alphabétisation numérique, comme expliqué en relation avec l’article 20 du Rapport explicatif.
118. Compte tenu du risque sérieux que les technologies d’intelligence artificielle puissent être utilisées pour faciliter l’exploitation et les abus sexuels concernant des enfants, et des risques spécifiques qu’elles font courir aux enfants, dans le cadre de la mise en œuvre de cette disposition, les auteurs de la proposition ont pris en considération les obligations énoncées dans la Convention de Lanzarote, le Protocole facultatif à la Convention des Nations unies relative aux droits de l’enfant sur la vente d’enfants,
prostitution enfantine et pornographie enfantine, et Observation générale n° 25 à la CNUDE sur les droits de l’enfant dans le contexte de l’environnement numérique.
Rapport explicatif
119. Le but du présent article est d’inviter les Parties, le cas échéant, à encourager l’engagement civique, à inciter les individus et les experts à participer au débat public sur des questions d’importance sociale et politique majeure, et à sensibiliser davantage le public aux questions fondamentales et émergentes, y compris celles qui se posent dès les premières étapes de la conception, soulevées par les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle. Les points de vue de la société et les différentes perspectives devraient être évalués et pris en compte dans la mesure du possible en ce qui concerne les problèmes pertinents, qui pourraient inclure, par exemple, les risques ainsi que les impacts positifs et négatifs. Pour ce faire, un “débat public et une consultation multipartite” pertinents sont recommandés.
120. L’engagement devrait impliquer un large éventail de parties prenantes, y compris le grand public, les experts de l’industrie, les universitaires, les institutions nationales des droits de l’homme (INDH) et la société civile. Pour les rédacteurs de la Convention-cadre, ces discussions et consultations jouent un rôle crucial pour garantir que les systèmes d’intelligence artificielle soient conformes aux droits de l’homme universels et répondent aux préoccupations pertinentes en matière de droits de l’homme, de démocratie et de respect du droit, en reflétant un large éventail de perspectives et en informant ainsi les initiatives politiques et réglementaires pertinentes.
121. L’expression “en tant que de besoin” laisse aux Parties le soin de déterminer les thèmes, la fréquence et les autres modalités de ces consultations, à la lumière des implications sociales, économiques, juridiques, éthiques, environnementales et autres. Par exemple, les États peuvent organiser des enquêtes et des questionnaires, des ateliers publics, des groupes de réflexion, des jurys de citoyens et des consultations délibératives, des panels d’experts et des comités consultatifs, des auditions publiques, des conférences nationales et internationales, ou des combinaisons de ce qui précède. L’évaluation finale et l’intégration des résultats de ces discussions et consultations dans les initiatives politiques pertinentes pourraient également être communiquées de manière adéquate et appropriée aux parties prenantes concernées.
Rapport explicatif
122. Cette disposition attire l’attention des Parties sur le fait que la promotion de la culture numérique et des compétences numériques pour tous les segments de la population est d’une importance cruciale dans le monde technologique d’aujourd’hui. Les deux termes font référence à la capacité d’utiliser, de comprendre et de s’engager efficacement avec les technologies numériques, y compris l’intelligence artificielle et d’autres technologies basées sur des données, et contribuent ainsi à promouvoir une large prise de conscience et une meilleure compréhension au sein de la population en général, ainsi qu’à prévenir et à atténuer les risques ou les effets négatifs sur les droits de l’homme, la démocratie ou le droit, ainsi que d’autres préjudices sociétaux tels que l’utilisation malveillante ou criminelle de ces technologies. Les auteurs de la proposition de directive souhaitaient également mentionner les effets particulièrement bénéfiques de tels programmes pour les personnes issues de milieux divers et pour celles qui peuvent être sous-représentées ou se trouver dans des situations de vulnérabilité, qui peuvent inclure, par exemple, les femmes, les filles, les populations autochtones, les personnes âgées et les enfants, avec un respect dû aux garanties concernant l’utilisation de systèmes d’intelligence artificielle pour les personnes en situation de vulnérabilité.
123. Conformément à l’objet et au but de la Convention-cadre, les programmes de formation spécifiques concernant les technologies de l’intelligence artificielle mentionnés à l’article 20 pourraient inclure une sensibilisation aux risques potentiels et aux effets néfastes des systèmes d’intelligence artificielle dans le contexte des droits de l’homme, de la démocratie ou de l’État de droit, ainsi que la capacité de gérer ces risques et effets, et pourraient porter, selon le contexte, sur des sujets tels que
a. le concept d’intelligence artificielle ;
b. l’objectif de systèmes particuliers d’intelligence artificielle ;
c. les capacités et les limites de différents types de modèles d’intelligence artificielle et les hypothèses qui les sous-tendent ;
d. les facteurs socioculturels liés à la conception, au développement et à l’utilisation de systèmes d’intelligence artificielle, y compris en ce qui concerne les données utilisées pour leur formation ;
e. les facteurs humains pertinents pour l’utilisation de systèmes d’intelligence artificielle, tels que la manière dont les utilisateurs finaux peuvent interpréter et utiliser les résultats ;
f. expertise de domaine pertinente pour le contexte dans lequel les systèmes d’intelligence artificielle sont utilisés ;
g. les considérations juridiques et politiques ;
h. Perspectives d’individus ou de communautés qui font l’expérience de manière disproportionnée d’impacts négatifs de systèmes d’intelligence artificielle.124. Compte tenu de l’importance de la formation des personnes chargées de l’identification, de l’évaluation, de la prévention et de l’atténuation des risques liés à l’intelligence artificielle, la disposition fait également référence à ce groupe spécifique d’interlocuteurs (notamment les autorités judiciaires, les autorités nationales de contrôle, les organismes chargés de l’égalité et des droits de l’homme, les médiateurs, les autorités chargées de la protection des consommateurs, les fournisseurs d’intelligence artificielle et les utilisateurs d’intelligence artificielle), en particulier en ce qui concerne l’application de la méthodologie visée à l’article 16.
Rapport explicatif
125. Conformément à la Convention de Vienne de 1969 sur le droit des traités, cet article vise à assurer la coexistence harmonieuse de la Convention-cadre avec d’autres traités et instruments internationaux relatifs aux droits de l’homme, tels que ceux énumérés au paragraphe 39 ci-dessus.
126. Cette disposition renforce le fait que l’objectif général de la présente convention-cadre est d’assurer le plus haut niveau de protection des droits de l’homme, de la démocratie et de l’État de droit dans le cadre des activités menées dans le cycle de vie des systèmes d’intelligence artificielle. Dans ce contexte, toutes les références au droit national dans cette Convention-cadre devraient être lues comme étant limitées aux cas où le droit national prévoit un niveau de protection des droits de l’homme plus élevé que le droit international applicable.
Rapport explicatif
127. Cette disposition protège les dispositions du droit national et des instruments internationaux contraignants existants et futurs qui prévoient une protection supplémentaire en ce qui concerne les activités liées au cycle de vie des systèmes d’intelligence artificielle dans des contextes sensibles du point de vue de la protection des données.
of view of human rights, democracy and the rule of law, going beyond the level secured by this Framework Convention ; this Framework Convention shall not be interpreted as to restrict such protection. L’expression “mesure de protection plus large” peut être interprétée comme offrant la possibilité de placer une personne, par exemple, dans une position plus favorable que celle prévue par la convention-cadre.
128. Le chapitre VII de la convention-cadre contient des dispositions visant à assurer la mise en œuvre effective de la convention-cadre par les parties au moyen d’un mécanisme de suivi et de coopération. Il s’agit du mécanisme annoncé à l’article 1er , paragraphe 3.
1. La Conférence des Parties est composée de représentants des Parties à la présente Convention.
2. Les parties se consultent périodiquement en vue de :
a. de faciliter l’application et la mise en œuvre effectives de la présente convention, y compris l’identification de tout problème et les effets de toute réserve faite en application du paragraphe 1 de l’article 34 ou de toute déclaration faite en vertu de la présente convention ;
b.en considérant l’éventuel complément ou amendement à la présente convention ;
c.d’examiner des questions et de formuler des recommandations spécifiques concernant l’interprétation et l’application de la présente convention ;
d.de faciliter l’échange d’informations sur les développements juridiques, politiques ou technologiques importants, y compris dans la poursuite des objectifs définis à l’article 25, pour la mise en œuvre de la présente convention ;
e.facilitant, si nécessaire, le règlement amiable des différends relatifs à l’application de la présente convention ; et
f.en facilitant la coopération avec les parties prenantes concernées sur les aspects pertinents de la mise en œuvre de la présente convention, y compris par des consultations publiques le cas échéant.
3. La Conférence des Parties est convoquée par le Secrétaire général du Conseil de l’Europe en tant que de besoin et, en tout état de cause, lorsqu’une majorité des Parties ou le Comité des Ministres en demande la convocation.
4. La Conférence des Parties adopte ses propres règles de procédure par consensus dans un délai de douze mois à compter de l’entrée en vigueur de la présente Convention.
5. Les parties sont assistées par le Secrétariat du Conseil de l’Europe dans l’exercice des fonctions qui leur incombent en vertu du présent article.
6. La Conférence des Parties peut proposer au Comité des Ministres des moyens appropriés d’engager des compétences pertinentes à l’appui de la mise en œuvre effective de la présente Convention.
7. Toute Partie qui n’est pas membre du Conseil de l’Europe contribue au financement des activités de la Conférence des Parties. La contribution d’un non-membre du Conseil de l’Europe est établie conjointement par le Comité des Ministres et ce non-membre.
8. La Conférence des Parties peut décider de restreindre la participation à ses travaux d’une Partie qui a cessé d’être membre du Conseil de l’Europe en vertu de l’article 8 du Statut du Conseil de l’Europe (STE no 1) pour violation grave de l’article 3 dudit Statut. De même, des mesures peuvent être prises à l’égard de toute partie qui n’est pas un État membre du Conseil de l’Europe par une décision du Comité des ministres de mettre fin à ses relations avec cet État pour des motifs similaires à ceux visés à l’article 3 des statuts.
Rapport explicatif
129. Cet article prévoit la mise en place d’un organe relevant de la convention-cadre, la conférence des parties, composée de représentants des parties.
130. La création de cet organe garantira une participation égale de toutes les parties à la procédure de prise de décision et à la procédure de suivi de la convention-cadre et renforcera également la coopération entre les parties afin d’assurer une mise en œuvre correcte et effective de la convention-cadre.
131. La flexibilité du mécanisme de suivi établi par la présente convention-cadre est reflétée par le fait qu’il n’y a pas d’exigence temporelle pour sa convocation. Il sera convoqué par le Secrétaire général du Conseil de l’Europe (paragraphe 3) en tant que de besoin et périodiquement (paragraphe 2). Toutefois, elle ne peut être convoquée qu’à la demande de la majorité des Parties ou à la demande du Comité des ministres du Conseil de l’Europe (paragraphe 3).
132. En ce qui concerne la présente Convention-cadre, la Conférence des Parties a les compétences traditionnelles de suivi et joue un rôle en matière de :
a)la mise en œuvre effective de la convention-cadre, en faisant des propositions visant à faciliter ou à améliorer l’utilisation et la mise en œuvre effectives de la présente convention-cadre, y compris l’identification de tout problème à cet égard, et les effets de toute évolution juridique, politique ou technologique importante concernant les activités relevant du cycle de vie des systèmes d’intelligence artificielle, ainsi que les effets de toute déclaration ou réserve faite en vertu de la présente convention-cadre ;
b)l’amendement de la convention-cadre, en faisant des propositions d’amendement conformément à l’article 28, paragraphe 1, et en formulant son avis sur toute proposition d’amendement de la présente convention-cadre qui y est mentionnée conformément à l’article 28, paragraphe 3 ;
c)un rôle consultatif général à l’égard de la Convention-cadre en formulant des recommandations spécifiques sur toute question relative à son interprétation ou à son application, y compris, par exemple, en suggérant des interprétations de termes juridiques contenus dans la Convention-cadre. Bien qu’elles ne soient pas juridiquement contraignantes, ces recommandations peuvent être considérées comme une expression commune de l’opinion des Parties sur un sujet donné, dont les Parties devraient tenir compte de bonne foi dans leur application de la Convention-cadre.
d)servir de forum pour faciliter l’échange d’informations sur les évolutions juridiques, sociétales, politiques ou technologiques importantes en rapport avec l’application des dispositions de la convention-cadre, y compris en ce qui concerne les activités de coopération internationale décrites à l’article 25 ;
e)conformément à l’article 29 de la convention-cadre, en facilitant, le cas échéant, le règlement amiable des différends relatifs à l’application de ses dispositions, dans un cadre consultatif non contraignant ;
f)faciliter la coopération avec les parties prenantes, y compris les organisations non gouvernementales et les autres organismes susceptibles d’améliorer l’efficacité du mécanisme de suivi. Compte tenu du caractère hautement technique de la Convention-cadre, le paragraphe 6 de l’article 23 souligne expressément la possibilité pour la Conférence des Parties de demander, le cas échéant, des conseils d’experts.
133. La Conférence des Parties doit adopter des règles de procédure établissant le mode de fonctionnement du système de suivi de la Convention-cadre, étant entendu que ses règles de procédure doivent être conçues de manière à assurer un tel suivi de manière efficace. Les règles de procédure doivent être adoptées par consensus, c’est-à-dire par une décision prise en l’absence d’objection soutenue et sans vote formel. L’article 23, paragraphe 4, stipule en outre que la Conférence des Parties doit adopter ces règles dans les douze mois suivant l’entrée en vigueur de la Convention-cadre.
134. Le paragraphe 7 concerne la contribution des parties qui ne sont pas des États membres du Conseil de l’Europe au financement des activités de la Conférence des parties. Les contributions des États membres à ces activités sont couvertes collectivement par le budget ordinaire du Conseil de l’Europe, tandis que les États non membres contribuent individuellement, de manière équitable. La convention-cadre ne précise pas la forme sous laquelle les contributions, y compris les montants et les modalités, des parties qui ne sont pas membres du Conseil de l’Europe doivent être établies. La base juridique de la contribution de ces parties sera la convention-cadre elle-même et le ou les actes établissant cette contribution. La convention-cadre n’affecte pas les lois et règlements nationaux des parties relatifs aux compétences budgétaires et aux procédures de vote du budget. Sans préjudice de l’accord mentionné ci-dessus, l’un des moyens pour une Partie qui n’est pas membre du Conseil de l’Europe de s’acquitter de sa contribution est de payer dans la limite du budget approuvé par la branche législative.
135. Le paragraphe 8 de cette disposition donne à la Conférence des Parties l’autorité de délibérer sur la limitation de la participation à ses travaux de toute Partie qui a été exclue du Conseil de l’Europe en vertu de l’article 8 des statuts du Conseil de l’Europe pour violation grave de l’article 3 des statuts. Une action similaire peut être entreprise à l’égard de toute partie non membre du Conseil de l’Europe par une décision du Comité des ministres du Conseil de l’Europe.
1. Chaque Partie présente un rapport à la Conférence des Parties dans les deux premières années après être devenue Partie, puis périodiquement par la suite, détaillant les activités entreprises pour donner effet aux sous-paragraphes a et b du paragraphe 1 de l’article 3.
2. La Conférence des Parties détermine le format et la procédure du rapport conformément à ses règles de procédure.
Rapport explicatif
136. Pour permettre une coopération et une mise à jour régulière de la mise en œuvre de la Convention-cadre, chaque Partie devrait présenter un rapport à la Conférence des Parties dans les deux premières années suivant son accession au statut de Partie, puis périodiquement par la suite, détaillant les activités entreprises pour donner effet aux paragraphes (a) et (b) du premier alinéa de l’article 3. La Conférence des Parties déterminera le format et la procédure du rapport conformément à ses règles de procédure. Les auteurs du projet encouragent vivement les parties à inviter les signataires qui ne sont pas encore parties à la convention-cadre à partager des informations sur les mesures prises pour faire face aux risques pour les droits de l’homme, la démocratie et l’État de droit et pour faciliter les échanges.
1. Les Parties coopèrent à la réalisation de l’objet de la présente Convention. Les Parties sont en outre encouragées, le cas échéant, à aider les États qui ne sont pas parties à la présente Convention à agir de manière cohérente avec les termes de la présente Convention et à en devenir partie.
2. Les Parties échangent, selon qu’il convient, des informations pertinentes et utiles entre elles sur les aspects liés à l’intelligence artificielle qui peuvent avoir des effets positifs ou négatifs importants sur la jouissance des droits de l’homme, le fonctionnement de la démocratie et le respect de la légalité, y compris les risques et les effets qui se sont manifestés dans des contextes de recherche et en relation avec le secteur privé. Les Parties sont encouragées à associer, le cas échéant, les parties prenantes concernées et les États qui ne sont pas parties à la présente Convention à ces échanges d’informations.
3. Les parties sont encouragées à renforcer co
-L’Union européenne s’engage à coopérer, y compris avec les parties prenantes concernées le cas échéant, afin de prévenir et d’atténuer les risques et les effets négatifs sur les droits de l’homme, la démocratie et l’État de droit dans le cadre des activités liées au cycle de vie des systèmes d’intelligence artificielle.
Rapport explicatif
137. Cet article expose les dispositions relatives à la coopération internationale entre les Parties à la Convention-cadre. Il commence par mentionner l’obligation applicable entre les parties de s’accorder mutuellement la plus grande assistance possible en rapport avec la réalisation de l’objectif de la présente convention-cadre, qui est de garantir que les activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle soient pleinement compatibles avec les droits de l’homme, la démocratie et le principe de la légalité.
138. Cette obligation générale est complétée par un point important concernant la nécessité pour les Parties d’offrir une assistance, lorsqu’elle est jugée appropriée, aux États qui ne sont pas encore parties à la présente Convention-cadre. Cette assistance devrait viser à guider ces États dans l’alignement de leurs actions sur les principes énoncés dans la présente Convention-cadre et, en définitive, à encourager leur adhésion à celle-ci. Cet effort de collaboration devrait chercher à promouvoir un engagement collectif envers les objectifs et les dispositions de la Convention-cadre, en favorisant une adhésion plus large et plus inclusive à ses dispositions parmi les États du monde entier. Ce soutien et cette orientation n’impliquent pas nécessairement une aide financière.
139. En outre, la coopération prévue par la convention-cadre devrait inclure la facilitation du partage d’informations pertinentes concernant divers aspects de l’intelligence artificielle entre les parties, y compris les mesures adoptées pour prévenir ou atténuer les risques et les incidences sur les droits de l’homme, la démocratie et l’État de droit. Cet échange d’informations devrait porter sur les éléments susceptibles d’avoir des effets substantiels, positifs ou négatifs, sur la jouissance des droits de l’homme, le fonctionnement des processus démocratiques et le respect de l’État de droit, y compris les risques et les effets qui se sont produits dans le contexte de la recherche et en relation avec le secteur privé. Ce partage s’étend également aux risques et aux effets qui ont émergé dans les contextes de recherche sur l’intelligence artificielle, promouvant une compréhension globale des implications multiformes de ces technologies dans ces domaines critiques. À cet égard, la disposition souligne également la nécessité pour les Parties d’inclure des acteurs non étatiques pertinents, tels que des universitaires, des représentants de l’industrie et des organisations de la société civile, dans le but d’assurer un point de vue multipartite sur les questions pertinentes.
140. Enfin, la disposition précise directement que, pour que le suivi de l’application de la convention-cadre soit réellement efficace, les efforts de coopération des parties devraient viser spécifiquement la prévention et l’atténuation des risques et des effets négatifs résultant des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle, et que cette coopération devrait en outre inclure la possibilité d’associer des représentants d’organisations non gouvernementales et d’autres organes compétents.
1. Chaque Partie établit ou désigne un ou plusieurs mécanismes efficaces pour assurer le respect des obligations prévues par la présente Convention.
2. Chaque Partie veille à ce que ces mécanismes exercent leurs fonctions de manière indépendante et impartiale et qu’ils disposent des pouvoirs, de l’expertise et des ressources nécessaires pour s’acquitter efficacement de leur mission de contrôle du respect des obligations prévues par la présente Convention, telle qu’elle a été établie par les Parties.
3. Si une Partie a prévu plus d’un mécanisme de ce type, elle prendra des mesures, lorsque cela est réalisable, pour faciliter une coopération effective entre eux.
4. Lorsqu’une Partie a prévu des mécanismes différents des structures existantes en matière de droits de l’homme, elle doit prendre des mesures, lorsque cela est possible, pour promouvoir une coopération effective entre t
es mécanismes mentionnés au paragraphe 1 et les structures nationales existantes en matière de droits de l’homme.
Rapport explicatif
141. Cette disposition exige que les Parties adoptent ou maintiennent des mécanismes efficaces pour assurer le respect des obligations prévues par la Convention-cadre. Compte tenu du caractère omniprésent de l’utilisation des systèmes d’intelligence artificielle et du fait que toutes les Parties ont déjà mis en place diverses réglementations et mécanismes de contrôle pour la protection des droits de l’homme dans différents secteurs, la disposition souligne la nécessité pour les Parties de réexaminer les mécanismes déjà existants afin de les appliquer au contexte des activités menées dans le cadre du cycle de vie des systèmes d’intelligence artificielle. Les Parties peuvent
choisissent également d’étendre, de réaffecter, d’adapter ou de redéfinir leurs fonctions ou, le cas échéant, de mettre en place des structures ou des mécanismes entièrement nouveaux. Les dispositions du thi
s article laissent expressément ces décisions à la discrétion des parties, sous réserve des conditions énoncées aux paragraphes 2 et 3, étant entendu que les organes concernés devraient être dotés des pouvoirs suffisants pour mener efficacement leurs activités de contrôle.142. Qu’ils soient créés, nouvellement établis ou désignés, ces organes doivent satisfaire aux critères énoncés au paragraphe 2 de la disposition dans la mesure où ils doivent être fonctionnellement indépendants des acteurs concernés au sein des branches exécutive et législative. La référence à “independently and impartially” au paragraphe 2 indique un degré suffisant de distance par rapport aux acteurs concernés au sein des branches exécutive et législative, soumis à un contrôle permettant à l’organe ou aux organes concernés de s’acquitter efficacement de leurs fonctions. Ce terme couvre une variété de types d’indépendance fonctionnelle qui pourraient être mis en œuvre dans différents systèmes juridiques. Par exemple, cela peut inclure des fonctions de contrôle intégrées dans des organes gouvernementaux spécifiques qui évaluent ou supervisent le développement et l’utilisation de systèmes d’intelligence artificielle.
143. Un certain nombre d’autres éléments mentionnés dans la disposition contribuent à garantir le niveau requis d’indépendance fonctionnelle : les organes devraient disposer des pouvoirs, de l’expertise, y compris en matière de droits de l’homme, des connaissances techniques et des compétences nécessaires, ainsi que d’autres ressources pour accomplir leurs tâches de manière efficace.
144. Compte tenu de l’objet commun et de la possibilité réelle que le contrôle des activités du cycle de vie des systèmes d’intelligence artificielle soit partagé entre plusieurs autorités dans un certain nombre de secteurs (ce qui est particulièrement vrai pour les parties disposant de mécanismes spécialisés en matière de droits de l’homme, tels que la protection des données, les organismes de promotion de l’égalité ou les institutions nationales des droits de l’homme (INDH), agissant dans un secteur ou dans des secteurs donnés), la disposition exige des parties qu’elles encouragent une communication et une coopération efficaces entre elles.
145. Sous réserve de certaines exceptions, les dispositions des articles 27 à 36 sont essentiellement fondées sur les clauses finales types pour les conventions, les protocoles additionnels et les protocoles modificatifs conclus au sein du Conseil de l’Europe et adoptés par le Comité des ministres lors de sa 1291e réunion des délégués des ministres, le 5 juillet 2017.
1. Si deux ou plusieurs parties ont déjà conclu un accord ou un traité sur les questions traitées dans la présente convention, ou si elles ont établi d’une autre manière des relations sur ces questions, elles auront également le droit d’appliquer cet accord ou ce traité ou de réglementer ces relations en conséquence, à condition de le faire d’une manière qui ne soit pas incompatible avec l’objet et le but de la présente convention.
2. Les parties qui sont membres de l’Union européenne appliquent, dans leurs relations mutuelles, les règles de l’Union européenne régissant les matières qui relèvent du champ d’application de la présente convention, sans préjudice de l’objet et du but de celle-ci et sans préjudice de sa pleine application avec les autres parties. Il en est de même pour les autres Parties dans la mesure où elles sont liées par de telles règles.
Rapport explicatif
146. Le paragraphe 1 de l’article 27 prévoit que les parties sont libres d’appliquer des accords ou des traités conclus antérieurement à la présente convention-cadre, y compris des accords commerciaux internationaux, qui réglementent les activités du cycle de vie des systèmes d’intelligence artificielle relevant du champ d’application de la présente convention-cadre. Toutefois, les parties doivent respecter l’objet et le but de la convention-cadre lorsqu’elles agissent de la sorte et ne peuvent donc pas avoir d’obligations qui iraient à l’encontre de son objet et de son but.
147. Le paragraphe 2 de cet article reconnaît également l’intégration accrue de l’Union européenne, en particulier en ce qui concerne la réglementation des systèmes d’intelligence artificielle. Ce paragraphe permet donc aux États membres de l’Union européenne d’appliquer entre eux le droit de l’Union européenne qui régit les matières traitées dans la présente convention-cadre. Les auteurs de la proposition visaient à inclure dans le droit de l’Union européenne les mesures, principes et procédures prévus par le cadre juridique de l’Union européenne, en particulier les lois, règlements ou dispositions administratives, ainsi que d’autres exigences, y compris les décisions de justice. Le paragraphe 2 est donc destiné à couvrir les relations internes entre les États membres de l’Union européenne et entre les États membres de l’Union européenne et les institutions, organes, bureaux et agences de l’Union européenne. La même clause devrait également s’appliquer aux autres parties qui appliquent les règles de l’Union européenne dans la mesure où elles sont liées par ces règles en raison de leur participation au marché intérieur de l’Union européenne ou sont soumises au traitement du marché intérieur.
148. La présente disposition n’affecte pas la pleine application de la présente convention-cadre entre l’Union européenne ou des parties qui sont membres de l’Union européenne et d’autres parties. De même, cette disposition n’affecte pas la pleine application de la présente convention-cadre entre les parties qui ne sont pas membres de l’Union européenne, dans la mesure où elles sont également liées par les mêmes règles et autres parties à la convention-cadre.
1. Des amendements à la présente Convention peuvent être proposés par toute Partie, par le Comité des Ministres du Conseil de l’Europe ou par la Conférence des Parties.
2. Toute proposition d’amendement est communiquée aux parties par le Secrétaire général du Conseil de l’Europe.
3. Tout amendement proposé par une Partie, ou par le Comité des Ministres, est communiqué à la Conférence des Parties, qui soumet au Comité des Ministres son avis sur l’amendement proposé.
4. Le Comité des Ministres examine l’amendement proposé et l’avis soumis par la Conférence des Parties et peut approuver l’amendement.
5. Le texte de tout amendement approuvé par le Comité des Ministres conformément au paragraphe 4 est transmis aux Parties pour acceptation.
6. Tout amendement approuvé conformément au paragraphe 4 entrera en vigueur le trentième jour suivant la date à laquelle toutes les parties auront informé le Secrétaire général de leur acceptation.
Rapport explicatif
149. Cet article prévoit la possibilité d’amender la convention-cadre et établit le mécanisme de ce processus. Cette procédure d’amendement est principalement destinée à des modifications relativement mineures de nature procédurale et technique. Les auteurs de la proposition ont considéré que des modifications importantes pouvaient être apportées à la convention-cadre sous la forme d’amendements aux protocoles.
150. Des amendements aux dispositions de la convention-cadre peuvent être proposés par une partie, par le comité des ministres du Conseil de l’Europe ou par la conférence des parties. Ces amendements sont alors communiqués aux parties à la convention-cadre.
151. Sur tout amendement proposé par une Partie ou par le Comité des Ministres, la Conférence des Parties soumet au Comité des Ministres son avis sur l’amendement proposé.
152. Le Comité des Ministres examine l’amendement proposé et toute opinion soumise par la Conférence des Parties et peut approuver l’amendement.
153. Conformément aux paragraphes 5 et 6, tout amendement approuvé par le Comité des ministres n’entrerait en vigueur qu’après que toutes les Parties auraient informé le Secrétaire général du Conseil de l’Europe de leur acceptation. Cette exigence vise à assurer l’égalité de participation au processus décisionnel pour toutes les Parties et à garantir que la Convention-cadre évoluera de manière uniforme.
Rapport explicatif
154. Les auteurs de la proposition ont estimé qu’il était important d’inclure dans le texte de la convention-cadre un article sur le règlement des différends, qui impose aux parties l’obligation de rechercher un règlement pacifique de tout différend relatif à l’application ou à l’interprétation de la convention-cadre par voie de négociation ou par tout autre moyen pacifique de leur choix.
155. En plus de la négociation spécifiquement mentionnée au premier paragraphe du présent article, les parties peuvent avoir recours à tout autre moyen pacifique de leur choix, tel que visé à l’article 33 de la Charte des Nations unies. Comme le prévoit l’article 23, elles peuvent également, par consentement mutuel, se tourner vers la Conférence des Parties à tout moment. La disposition ne s’étend pas davantage sur les procédures spécifiques à adopter dans le cadre d’un différend potentiel. Toute procédure de règlement des différends doit être convenue par les parties concernées.
1. La présente convention est ouverte à la signature des États membres du Conseil de l’Europe, des États non membres qui ont participé à sa rédaction et de l’Union européenne.
2. La présente Convention est soumise à ratification, acceptation ou approbation. Les instruments de ratification, d’acceptation ou d’approbation sont déposés auprès du Secrétaire général du Conseil de l’Europe.
3. La présente convention entre en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date à laquelle cinq signataires, dont au moins trois États membres du Conseil de l’Europe, ont exprimé leur consentement à être liés par la présente convention conformément au paragraphe 2.
4. En ce qui concerne tout signataire qui exprimera ultérieurement son consentement à être lié par la présente Convention, celle-ci entrera en vigueur le premier jour du mois suivant l’expiration d’une période de trois mois après la date de dépôt de son instrument de ratification, d’acceptation ou d’approbation.
Rapport explicatif
156. Le paragraphe 1 indique que la convention-cadre est ouverte à la signature des États membres du Conseil de l’Europe, des États non membres qui ont participé à son élaboration (Argentine, Australie, Canada, Costa Rica, Saint-Siège, Israël, Japon, Mexique, Pérou, États-Unis et Uruguay) et de l’Union européenne. Dès l’entrée en vigueur de la convention-cadre, conformément au paragraphe 3, les autres États non membres qui ne sont pas couverts par la présente disposition peuvent être invités à adhérer au cadre.
k Convention, conformément à l’article 31, paragraphe 1.
157. Le paragraphe 2 précise que le Secrétaire général du Conseil de l’Europe est dépositaire des instruments de ratification, d’acceptation ou d’approbation de la présente convention-cadre.
158. Le paragraphe 3 fixe à cinq le nombre de ratifications, d’acceptations ou d’approbations nécessaires pour l’entrée en vigueur de la convention-cadre. Au moins trois d’entre eux doivent être effectués par des membres du Conseil de l’Europe, conformément à la pratique de l’Organisation en matière d’élaboration des traités.
1. Après l’entrée en vigueur de la présente convention, le Comité des ministres du Conseil de l’Europe peut, après avoir consulté les parties à la présente convention et obtenu leur accord unanime, inviter toute personne à participer à la réunion.
État non membre du Conseil de l’Europe n’ayant pas participé à l’élaboration de la présente convention à adhérer à la présente convention par décision prise à la majorité requise
à l’article 20.d des statuts du Conseil de l’Europe, et par un vote à l’unanimité des représentants des parties habilitées à siéger au Comité des ministres.
2. Pour tout État adhérent, la présente Convention entrera en vigueur le premier jour du mois suivant l’expiration d’une période de trois mois après la date de dépôt de l’instrument d’adhésion auprès du Secrétaire général du Conseil de l’Europe.
Rapport explicatif
159. Après l’entrée en vigueur de la présente Convention-cadre, le Comité des Ministres du Conseil de l’Europe peut, après avoir consulté les Parties à la présente Convention-cadre et obtenu leur consentement unanime, inviter tout État non membre du Conseil de l’Europe qui n’a pas participé à l’élaboration de la Convention-cadre à y adhérer. Cette décision requiert la majorité des deux tiers prévue à l’article 20.d des Statuts du Conseil de l’Europe et le vote à l’unanimité des représentants des Parties ayant le droit de siéger au Comité des Ministres.
1. Tout État ou l’Union européenne peut, au moment de la signature ou au moment du dépôt de son instrument de ratification, d’acceptation, d’approbation ou d’adhésion, préciser le ou les territoires auxquels s’applique la présente convention.
2. Toute Partie peut, à une date ultérieure, par une déclaration adressée au Secrétaire général du Conseil de l’Europe, étendre l’application de la présente Convention à tout autre territoire désigné dans la déclaration. En ce qui concerne ce territoire, la présente Convention entrera en vigueur le premier jour du mois qui suit l’expiration d’une période de trois mois après la date de réception de la déclaration par le Secrétaire Général.
3. Toute déclaration faite en vertu des deux paragraphes précédents peut être retirée, en ce qui concerne tout territoire désigné dans ladite déclaration, par notification adressée au Secrétaire général du Conseil de l’Europe. Le retrait prendra effet le premier jour du mois suivant l’expiration d’une période de trois mois après la date de réception de ladite notification par le Secrétaire général.
Rapport explicatif
160. Le paragraphe 1 est une clause d’application territoriale similaire à celles souvent utilisées dans la pratique des traités internationaux, y compris les conventions élaborées au sein du Conseil de l’Europe. Toute partie peut spécifier le ou les territoires auxquels la convention-cadre s’applique. Il est bien entendu qu’il serait incompatible avec l’objet et le but de la Convention-cadre pour toute Partie d’exclure des parties de son territoire de l’application de la Convention-cadre sans raison valable (telle que l’existence de statuts juridiques différents ou de systèmes juridiques différents applicables aux questions traitées dans la Convention-cadre).
on).161. Le paragraphe 2 concerne l’extension de l’application de la convention-cadre aux territoires dont les parties sont responsables des relations internationales ou pour le compte desquels elles sont autorisées à donner des ordres de mission.
1. Un État fédéral peut se réserver le droit d’assumer les obligations prévues par la présente convention conformément à ses principes fondamentaux régissant les relations entre son gouvernement central et les États constitutifs ou autres entités territoriales similaires, à condition que la présente convention s’applique au gouvernement central de l’État fédéral.
.
2. En ce qui concerne les dispositions de la présente convention, l’application des dispositions qui relèvent de la compétence des États constitutifs ou d’autres entités territoriales similaires qui sont
qui ne sont pas tenus par le système constitutionnel de la fédération de prendre des mesures législatives, le gouvernement fédéral informe de ces dispositions, avec son avis favorable, les autorités compétentes de ces États et les encourage à prendre les mesures appropriées pour leur donner effet.
Rapport explicatif
162. Conformément à l’objectif de permettre au plus grand nombre possible d’États de devenir parties à la Convention-cadre, l’article 33 permet une réserve qui est destinée à compenser les difficultés auxquelles les États fédérés peuvent être confrontés en raison de leur répartition caractéristique des pouvoirs entre les autorités centrales et régionales et du fait que, dans certains systèmes, les gouvernements fédéraux du pays en question peuvent ne pas être constitutionnellement compétents pour remplir les obligations du traité. Des précédents existent pour des déclarations ou des réserves fédérales à d’autres accords internationaux[7], y compris, dans le cadre de la Convention sur la cybercriminalité (STE n° 185) sur le renforcement de la coopération et la divulgation des preuves électroniques du 23 novembre 2001 (article 41).
163. L’article 33 reconnaît que certaines variations dans la couverture peuvent résulter de la législation et de la pratique nationales bien établies d’une Partie qui est un État fédéral. Ces variations doivent être fondées sur sa constitution ou sur d’autres principes et pratiques fondamentaux relatifs à la répartition des pouvoirs entre le gouvernement central et les États constitutifs ou les entités territoriales d’un État fédéral en ce qui concerne les matières couvertes par la Convention-cadre.
164. Certains articles de la convention-cadre contiennent des exigences relatives à l’adoption ou au maintien de mesures législatives, administratives ou autres qu’un État fédéral peut se trouver dans l’impossibilité d’exiger de ses États constitutifs ou d’autres entités territoriales similaires qu’ils adoptent ou maintiennent.
165. En outre, le paragraphe 2 de l’article 33 dispose que, en ce qui concerne les dispositions dont la mise en œuvre relève de la compétence législative des États membres ou d’autres entités territoriales similaires, le gouvernement fédéral les soumet aux autorités de ces entités avec un préjugé favorable, en les encourageant à prendre les mesures appropriées pour leur donner effet.
1. Par notification écrite adressée au Secrétaire général du Conseil de l’Europe, tout État peut, au moment de la signature ou au moment du dépôt de son instrument de ratification, d’acceptation, d’approbation ou d’adhésion, déclarer qu’il se prévaut de la réserve prévue au paragraphe 1 de l’article 33.
2. Aucune autre réserve ne peut être faite au titre de la présente convention.
Rapport explicatif
166. L’article 34 précise qu’un État peut faire usage de la réserve prévue au paragraphe 1 de l’article 33, soit au moment de la signature, soit après le dépôt de son instrument de ratification, d’acceptation, d’approbation ou d’adhésion.
167. Le paragraphe 2 précise qu’aucune réserve ne peut être faite à l’égard de l’une quelconque des dispositions de la présente convention-cadre, sous réserve des exceptions prévues au paragraphe 1 du présent article.
1. Toute partie peut, à tout moment, dénoncer la présente convention par notification adressée au Secrétaire général du Conseil de l’Europe.
2. Cette dénonciation prend effet le premier jour du mois suivant l’expiration d’une période de trois mois après la date de réception de la notification par le Secrétaire général.
Rapport explicatif
168. Conformément à la Convention de Vienne des Nations Unies sur le droit des traités, l’article 35 permet à toute partie de dénoncer la Convention-cadre à tout moment. La seule exigence est que la dénonciation soit notifiée au Secrétaire général du Conseil de l’Europe, qui agira en tant que dépositaire de la Convention-cadre.
169. Cette dénonciation prend effet trois mois après avoir été reçue par le Secrétaire général.
a. toute signature ;
b.le dépôt de tout instrument de ratification, d’acceptation, d’approbation ou d’adhésion ;
c.toute date d’entrée en vigueur de la présente convention, conformément à l’article 30, paragraphes 3 et 4, et à l’article 31, paragraphe 2 ;
d.tout amendement adopté conformément à l’article 28 et la date d’entrée en vigueur de cet amendement ;
e.toute déclaration faite en application de l’article 3, paragraphe 1, sous-paragraphe b ;
f.toute réserve et tout retrait d’une réserve faite en application de l’article 34 ;
g.toute dénonciation faite en application de l’article 35 ;
h.tout autre acte, déclaration, notification ou communication ayant trait à la présente convention.
Rapport explicatif
170. L’article 36 énumère les notifications que le Secrétaire général du Conseil de l’Europe, en tant que dépositaire de la Convention-cadre, est tenu de faire, et désigne également les destinataires de ces notifications (les États et l’Union européenne).