Par David Vasella, version 1.0, 22 septembre 2024
L’auteur vous remercie pour vos précieux conseils Amina Chammah, Lena Götzinger, Hannes Meyle et Kento Reutimann (tous Walder Wyss), et pour des discussions fructueuses David Rosenthal (Vischer).
nous sommes reconnaissants.Aperçu
L’applicabilité de l’AI Act et la détermination des rôles du fournisseur et du déployeur – il existe également d’autres rôles – peuvent être présentées comme suit :
Cette FAQ utilise – outre les termes définis par la loi (→ 8) – les abréviations suivantes :
AI: Intelligence artificielle
AIA : AI Act (règlement sur les IC). Les références aux articles sans autre indication se rapportent toujours à l’AIA.
AIS: Système AI (système d’intelligence artificielle)
FOSS : Free and Open-Source Software (licence libre et open source)
GPAIGeneral-Purpose AI (IA à usage général)
GPAIMGeneral-Purpose AI Model (modèle d’IA à usage général)
GPAISGeneral-Purpose AI System (système d’IA à usage général)
HRAIS: High-Risk AIS (système d’IA à haut risque)
QMS: Système de gestion de la qualité
RMS: Système de gestion des risques
Le “Règlement (UE) 2024/1689 du 13 juin 2024 établissant des règles harmonisées en matière d’intelligence artificielle et modifiant […]”, le Règlement sur l’intelligence artificielle, Règlement IA, AI Act ou AIA) est le cadre réglementaire global par lequel l’UE (ou l’EEE, l’AIA présentant un intérêt pour l’EEE) réglemente l’utilisation des systèmes d’intelligence artificielle (systèmes IA, AIS).
Une version en ligne en anglais de l’AIA, avec une attribution non contraignante des considérants, est disponible à l’adresse suivante droit des donnéesainsi qu’une version PDF.
Il s’agit d’un règlement, donc directement applicable, comme le RGPD. Les autorités compétentes pourront toutefois concrétiser et modifier certains points (→ 51).
Sur le fond, l’AIA définit tout d’abord son champ d’application matériel et géographique personnel et fixe des règles pour le développement et l’utilisation de l’AIA, notamment pour les “systèmes d’intelligence artificielle à haut risque” (“High-Risk AI Systems”, “HRAIS”) et pour les AIS à vocation générale (c’est-à-dire les AIS diagnostiques à large échelle et à cas d’utilisation – appelés “General-Purpose AI”, “GPAI” ; voir → 39). Certaines pratiques particulièrement indésirables (use cases) sont en outre interdites (→ 27).
L’étude scientifique de l’AI Act est en cours, mais n’en est qu’à ses débuts. Parmi la littérature générale suisse, nous renvoyons (de manière incomplète) aux contributions suivantes :
Rosenthal, Le EU AI Act – Règlement sur l’intelligence artificielle, Jusletter du 5 août 2024 (https://dtn.re/tLrdFm)
Arioli, Gestion des risques selon le règlement de l’UE sur l’intelligence artificielle, Jusletter IT du 4 juillet 2024 (https://dtn.re/7iE4zb)
Houdrouge/Kruglak, Are Swiss data protection rules ready for AI ?, Jusletter du 27 novembre 2023 (https://dtn.re/KvghSt)
Muller, L’Artificial Intelligence Act de l’UE : une approche basée sur le risque pour la réglementation de l’intelligence artificielle, EuZ 1/2022 (https://dtn.re/PafzEb)
On trouve de la littérature spécialisée notamment sur droit d’auteur questions liées à l’IA générative (par ex. Thouvenin/Picht, AI & IP : Recommandations pour la législation, l’application du droit et la recherche sur les défis à l’interface de l’[IA et de la PI], sic ! 2023, 507 et suiv. Questions de responsabilité (par ex. Quadroni, Künstliche Intelligenz – praktische Haftungsfragen, HAVE 2021, 345 et suiv. droit du travail Thèmes (p. ex. Wildhaber, Künstliche Intelligenz und Mitwirkung am Arbeitsplatz, ARV 2024 1 ss).
De plus amples informations sont disponibles en permanence sur www.datenrecht.ch et sur le blog de Vischer (https://dtn.re/BAG7Il).
Dans la littérature juridique étrangère, nous renvoyons notamment aux ouvrages suivants :
Voigt/HullenManuel du règlement sur l’IA FAQ sur l’EU AI Act, 2024 (Kindle E‑Book : https://dtn.re/bIwQg3)
Wendt/Wendt, Le nouveau droit de l’intelligence artificielle, 2024 (Kindle E‑Book : https://dtn.re/kFmWjk)
Dans la littérature non juridique ou non principalement juridique, nous renvoyons à :
Gasser/Mayer-Schönberger, Guardrails : Guiding Human Decisions in the Age of AI, 2024, une discussion sur les cadres (lois, normes et technologies) pour la prise de décision, les défis des décisions numériques et les principes possibles pour les garde-fous (Kindle E‑Book : https://dtn.re/nYx3pm)
Strümke, Intelligence artificielle (Kindle E‑Book : https://dtn.re/eOI7vU); une introduction assez complète et lisible sur l’histoire de la région, les questions techniques, les risques et les points faibles et des spéculations sur l’évolution future.
La Commission européenne a présenté sa proposition le 21 avril 2021 (proposition de la Commission européenne du 21 avril 2021, https://dtn.re/JSQJtF), avec notamment des règles plus strictes en matière de transparence et de traçabilité. La réglementation des modèles d’IA adaptés à une large utilisation (“General-Purpose AI Model”, GPAIM ; à l’époque, plus souvent appelé “Foundation Model”) faisait déjà l’objet d’intenses discussions.
Dans les Négociations en trilogueDans le cadre de la procédure informelle de négociation, au cours de laquelle des représentants du Parlement, du Conseil et de la Commission cherchent un compromis, la question des AMPI est restée un point de discorde jusqu’à la fin, jusqu’à ce qu’un compromis soit trouvé le 9 décembre 2023. Ce déroulement explique la réglementation propre et remarquablement succincte de l’AMPI au chapitre V (→ 39 et suivantes).
Sur le site 21 mai 2024 le Conseil a approuvé le résultat des négociations. L’AI Act a été adopté le 12 juillet 2024 publié au Journal officiel de l’Union européenne (JO L, 2024/1689, https://dtn.re/0OYJXY).
L’AIA est entré en vigueur le 1er août 2024, 20 jours après sa publication au Journal officiel. Ses dispositions prendront effet progressivement (art. 113) :
2 février 2025: les chapitres I et II (dispositions générales et pratiques interdites) prennent effet.
2 août 2025Certaines exigences, y compris les obligations de notification et les sanctions, deviennent effectives. Cela concerne les dispositions relatives aux autorités notifiantes et aux organismes notifiés (chapitre III, section 4), les exigences relatives à la GPAIM (chapitre V), la gouvernance dans l’UE (chapitre VII) et les sanctions (chapitre XII), ainsi que les dispositions relatives à l’obligation de confidentialité des autorités (art. 78) ;
2 août 2026La plupart des dispositions prennent effet, notamment celles relatives à HRAIS, à l’exception de la suivante ;
2 août 2027Les dispositions relatives aux HRAIS prennent également effet dans le champ d’application de l’article 6, paragraphe 1, c’est-à-dire pour les AIS installés en tant que composants de sécurité d’un produit visé à l’annexe I ou utilisés en tant que tels.
Oui, peu, selon l’art. 111 :
En principe, l’AIA ne s’appliquera aux opérateurs HRAIS qu’à partir du 2 août 2030, lorsque les HRAIS mis sur le marché ou mis en service avant le 2 août 2026 ont été modifiées. Les modifications substantielles ultérieures sont toutefois réservées.
Fournisseurs de GPAIM ne seront couverts par l’EIA qu’à partir du 2 août 2027 si la GPAIM a été mise sur le marché avant le 2 août 2025.
L’art. 111 prévoit que les AIS utilisés comme composants dans des Systèmes informatiques à grande échelle dans le domaine public selon l’annexe X, ne devront être conformes que d’ici fin 2030. Il s’agit du système d’information Schengen ou du système d’information sur les visas et de systèmes similaires.
Le terme “intelligence artificielle” (“IA” ; “Artificial Intelligence”, “AI”) désigne un comportement d’un ordinateur qui n’est pas et ne peut pas être intelligent, mais qui, de l’extérieur, ressemble à de l’intelligence. Une définition du Parlement européen va également dans ce sens : “L’intelligence artificielle est la capacité d’une machine à imiter les capacités humaines telles que la logique et la créativité”. Par exemple, le célèbre Test de Turing par le fait qu’un être humain ne peut plus reconnaître si son interlocuteur est un être humain ou une machine.
La distinction entre l’intelligence artificielle et les systèmes déterminés n’est donc pas qualitative, mais finalement quantitative. L’intelligence artificielle est ce qui en a l’air, parce qu’une machine parvient à un résultat qui n’a pas été déterminé par un être humain – ou qui semble l’être : Les systèmes complexes sont également déterminés – ils ne semblent intelligents que parce que leur résultat est surprenant, ce qui s’explique par le fait qu’une décision prise par une machine est impossible à prendre en raison de la complexité particulière et de l’absence d’accès aux données d’entraînement de fait n’est pas compréhensible en tout point. Cela rend difficile l’interprétation de la notion de modèle d’IC selon l’AIA (→ 13).
L’art. 2 de l’AIA définit 68 termes. Ils sont ensuite utilisés dans l’AIA sans que l’article correspondant ne renvoie expressément à la définition – il faut donc souvent revenir à l’art. 2 lors de la lecture, d’autant plus que des termes auxquels on ne s’attendrait pas forcément sont également définis légalement (p. ex. “risque” ou “infraction largement répandue”).
De plus, dans la pratique, certains termes sont plutôt utilisés en allemand (“Inverkehrbringen”) et d’autres plutôt en anglais (“Provider”, “Deployer”), ce qui complique les choses. C’est pourquoi une comparaison des équivalents en allemand et en anglais se trouve en annexe de cette FAQ.
Les relations entre les données sont représentées par des modèles statistiques. Cela ne signifie pas que les statistiques constituent en soi une forme d’IA. Les méthodes statistiques sont des modèles mathématiques qui sont utilisés aussi bien dans l’IA que dans les approches déterministes. Toutefois, le Machine Learning (→ 10) et d’autres approches utilisent généralement des méthodes statistiques.
Une méthode importante de ce type est, par exemple, l’utilisation de la méthode de l’analyse de l’impact. Analyse de régression. Elle détermine les facteurs (variables) qui sont déterminants pour un résultat (ou l’intensité de l’influence d’une variable sur un résultat), ce qui permet de faire des prévisions correspondantes. Si, sur un graphique, l’axe x est le nombre de visiteurs lors d’une exposition et l’axe y la pluie, les points sur le graphique indiquent le nombre de visiteurs en fonction de la pluie. Si l’on trace une ligne qui correspond mathématiquement le mieux à tous les points (“ligne de régression”), elle explique la relation entre les axes ou les variables, c’est-à-dire ici comment la pluie affecte le nombre de visiteurs. Elle peut également indiquer l’écart des points de données par rapport à la valeur théorique, c’est-à-dire la marge d’erreur de la ligne, la marge de variation, le degré de fiabilité de la ligne de régression (généralement représenté par “R2” ou “r2” ; une valeur R2 de 0,73 signifie que 73% des données sont expliquées par la ligne de régression).
Une régression linéaire se base sur l’hypothèse que la valeur cible (le volume de visiteurs) dépend linéairement d’une variable (la pluie) ou que la valeur de marché d’un bien immobilier réagit à chaque fois de la même manière à une modification de la surface du terrain et de l’emplacement. Ici, une ligne droite est tracée à travers les points de données et d’autres valeurs (le nombre de visiteurs, la valeur du bien immobilier) peuvent être déterminées sur cette base. Des modèles prévisionnels simples sont ainsi possibles. Dans le cas de la régression non linéaire une ligne courbe est formée, par exemple, parce qu’une relation non linéaire doit être représentée (par exemple, si le nombre de visiteurs ne diminue qu’en cas de fortes pluies et non de bruine, ou si les chiffres de vente diminuent plus fortement en cas de hausse des prix après un certain prix – le seuil de prix). Ici aussi, on travaille avec une logique déterminée.
D’autres méthodes statistiques sont par exemple Analyses de clusters. Il ne s’agit pas d’une relation particulière, linéaire ou non, entre des variables, mais de quantifier les relations entre les données par des mesures de distance ou de similarité et de classer les objets ayant une faible mesure de distance dans un groupe commun. Dans le cas de données bidimensionnelles ou multidimensionnelles (“nuages de données”), les clusters ont un centre de gravité commun et les analyses de clustering servent à trouver ces centres de gravité et à classer les données dans le cluster dont le centre est le plus proche. Cela peut servir, par exemple, à classer les débiteurs potentiels dans un cluster lors de l’octroi d’un crédit et à accorder les conditions de crédit sur cette base.
Il est possible de paramétrique de non paramétriques les modèles de régression. Dans la régression non paramétrique, la relation entre les variables n’est pas prédéfinie, mais déduite selon différents critères à partir de données existantes, par exemple pour la modélisation de données économiques, l’étude des concentrations de polluants ou la prévision du cours des actions. La statistique paramétrique suppose en revanche que les données utilisées correspondent à une distribution statistique déterminée, caractérisée par un nombre fixe de paramètres.
D’un point de vue technique, l’IA est la branche de l’informatique qui s’occupe du développement de systèmes correspondants. La principale technologie dans ce domaine est “Apprentissage automatique„, „Apprentissage automatique” ou “ML”. Il n’est pas synonyme d’IA, car le ML sert essentiellement à reconnaître des modèles et à en déduire des prévisions sur la base de ces modèles, tandis que l’IA tente de résoudre une tâche.
Le ML doit permettre à un ordinateur d’ ”apprendre” sur la base de données, c’est-à-dire de déduire des connaissances à partir de données. Le terme “connaissance” n’est toutefois pas approprié. L’ancienne distinction entre déduction et induction est ici importante : dans le cas des les raisonnements déductifs une règle donnée comme vraie est appliquée, et les résultats dérivés de la règle peuvent être considérés comme aussi vrais que la règle elle-même (règle : tous les poissons peuvent nager ; input : Wanda est un poisson ; résultat : Wanda peut nager). Il existe également la Abduction. En effet, les maux de tête peuvent avoir de nombreuses causes ; l’inférence serait donc irrecevable. L’abduction travaille donc sur plusieurs chaînes causales possibles afin de trouver la cause la plus probable. De tels systèmes sont fréquents ; un exemple connu est le système de diagnostic “CADUCEUS”. Sur les conclusions inductives est, quant à lui, déduit d’informations une règle supposée. Le Machine Learning procède souvent de manière inductive : Des affirmations statistiquement fondées sont générées à partir de données ; il s’agit d’hypothèses plus ou moins convaincantes, mais qui ne peuvent prétendre à la vérité ou à l’objectivité. Les limites sont toutefois floues, car ces approches peuvent également être combinées.
Grâce au ML, une machine peut donc observer des données et, sur cette base, générer des prévisions ou des hypothèses plus ou moins probables, c’est-à-dire qui correspondent plus ou moins bien aux données d’entrée. L’explication de l’hypothèse ainsi formée – par exemple la conclusion d’une corrélation à une causalité – se situe en dehors du ML ; il s’agit d’une forme d’heuristique et non du ML. C’est pourquoi le ML dépend souvent de grandes quantités de données : Les modèles étirés, les relations entre les données, ne deviennent observables que dans la masse.
Reconnaître un modèle, c’est le généraliser. Plus un modèle – les modèles sont des fonctions mathématiques – est capable de généraliser, plus il est performant. C’est à cela que sert l’entraînement, comme nous l’avons dit. Si l’entraînement utilise trop peu de données, il ne peut pas tirer de conclusions fiables – on parle de sous-adaptation ou de “underfitting”. A l’inverse, un modèle peut trop bien apprendre les données d’entrée, dans le cas extrême, il les apprend par cœur. Il s’adapte alors aux données d’entrée, mais peut mal généraliser, comme un être humain qui a certes une bonne mémoire, mais qui ne pense pas. Cette suradaptation est appelée “overfitting”. Pour l’entraînement d’un ML, on utilise donc, en plus des jeux de données d’entraînement, des jeux de données de validation et de test, afin de réduire aussi bien un over-fitting qu’un under-fitting et d’améliorer ou du moins d’estimer la pertinence – la fiabilité de l’hypothèse généralisante.
Le ML utilise des modèles statistiques (→ 9), par exemple la régression linéaire, surtout pour l’apprentissage supervisé, ou l’analyse de clusters pour l’apprentissage non supervisé. Le ML peut utiliser aussi bien des méthodes paramétriques que non paramétriques. Les modèles paramétriques en ML utilisent certes une structure de modèle fixe, mais les valeurs des paramètres sont optimisées par un apprentissage. La régression linéaire en est un exemple, lorsqu’un modèle apprend à prévoir les prix de l’immobilier parce qu’il apprend à reconnaître de manière plus fiable les relations statistiques entre certains paramètres et les prix au cours de l’apprentissage. Ces modèles nécessitent donc que certaines hypothèses sur les données soient appliquées, mais n’excluent pas un “apprentissage” par l’entraînement. En revanche, les modèles non paramétriques dans le ML n’ont pas de structure fixe ou de nombre fixe de paramètres. Les arbres de décision qui sont améliorés au cours de l’entraînement en sont des exemples. Ce sont également des modèles statistiques qui déterminent à chaque nœud le meilleur “split” possible sur la base de critères statistiques.
Un meilleur critère pour distinguer les approches ML et déterministes est donc l’approche fondamentale : Méthodes déductives utilisent certaines hypothèses de base et en tirent des conclusions, tandis que méthodes inductives générer des règles possibles par un processus d’apprentissage avec une fiabilité croissante. La génération de règles est donc un facteur essentiel pour distinguer les approches déterministes des approches non déterministes. Les arbres de décision qui ne sont pas prédéfinis mais générés par un apprentissage en sont un exemple – le modèle détermine lors de l’apprentissage les règles qui séparent ou expliquent le mieux les données d’apprentissage, c’est-à-dire celles qui ont la plus grande pertinence pour une variable cible (p. ex. la solvabilité). Ces règles peuvent être interprétées et réutilisées. Un autre exemple est l’analyse d’association, qui représente des relations dans de grandes quantités de données et génère des règles qui décrivent des relations fréquentes. Dans le cas de l’analyse du panier d’achat, il est par exemple possible de générer une règle du type “Celui qui achète des couches le vendredi soir, achète également de la bière”. Ces règles sont également explicites et peuvent être interprétées.
Systèmes experts sont des systèmes qui contiennent une base de connaissances, par exemple des règles “si/alors” spécifiques à une application. Le système applique des règles à cette base de connaissances afin de déduire d’autres faits ou conclusions (inférence). Le système peut indiquer des probabilités et, dans certains cas, travailler avec des données imprécises (“logique floue”). Un exemple de système expert est le célèbre “Mycin”, un système développé dans les années 70 à l’université de Stanford pour soutenir l’utilisation d’antibiotiques. Sur la base de paramètres tels que le type d’agent pathogène, l’évolution de la maladie et les données de laboratoire, le système pouvait, grâce à certaines règles, prendre ou préparer des décisions sur la base de probabilités et d’incertitudes.
Alors que les arbres décisionnels génèrent des règles explicites, les réseaux neuronaux sont un exemple de génération de règles implicites. Les réseaux neuronaux apprennent des modèles complexes à partir des données, mais les “règles” qu’ils appliquent pour faire des prédictions sont cachées dans les pondérations et les activations des neurones. Bien qu’il n’existe pas de règles explicites de type “si-alors” dans les réseaux neuronaux, les décisions sont néanmoins déterminées par des règles apprises au cours du processus de formation.
La difficulté des réseaux neuronaux réside dans le fait que les règles sont souvent difficiles à comprendre – ce sont des modèles “boîte noire”. Récemment, des progrès ont toutefois été réalisés dans le domaine de l’IA explicable (“Explainable AI”), qui vise à révéler ces règles implicites et à les rendre plus compréhensibles.
La manière de procéder de ML n’est pas encore définie. Selon la méthodologie de l’apprentissage, on peut distinguer quatre formes :
Apprentissage surveillé (supervised learning), qui utilise des ensembles de données étiquetés (labeling).
Apprentissage non supervisé (unsupervised learning), dans lequel des modèles sont reconnus sans étiquetage, par exemple dans le cadre de l’exploration de données.
Apprentissage semi-supervisé (semi-supervised learning) comme forme intermédiaire, utilisant à la fois des données labellisées et non labellisées.
Apprentissage par renforcement (re-inforcement learning), dans lequel l’apprentissage est renforcé par l’interaction avec l’environnement.
Il est également utile de faire la distinction entre symbolique et l’apprentissage sous-symbolique. L’apprentissage symbolique est ainsi appelé parce qu’il utilise des symboles et des règles logiques pour représenter les connaissances. En voici un exemple Arbres de décision (“arbres de décision”) : Ici, une structure de conditions ou de règles est utilisée ou générée de manière analogue à un organigramme afin de tirer des conclusions basées sur des règles à partir de données d’apprentissage. La structure est arborescente car les nœuds représentent des décisions – chaque nœud correspond à une règle si/alors basée sur une propriété des données d’entrée. Les branches représentent les résultats de l’application de ces règles et les feuilles représentent les points finaux du résultat, de la classification ou de la prédiction. Les arbres décisionnels fonctionnent donc grâce à des processus décisionnels définis. Plusieurs arbres décisionnels peuvent être entraînés sur des données différentes et fournir ensemble, par exemple par décision majoritaire, de meilleurs résultats qu’un seul arbre qui a tendance à être surajusté.
L’apprentissage symbolique peut toutefois se heurter à des limites lorsqu’il s’agit de grandes quantités de données. Apprentissage subsymbolique utilise des données brutes qui ne doivent pas être converties en symboles compatibles avec le système. Cette approche est plus adaptée à la reconnaissance de modèles complexes dans les données d’entrée, mais elle peut être moins transparente, car les processus complexes sont plus difficiles à comprendre. Le choix de la forme de ML à utiliser ne dépend pas du domaine d’application, mais plutôt du fait que les règles sont déjà connues ou qu’elles doivent être créées. Dans l’exemple de l’évaluation de la solvabilité, une entreprise peut non seulement travailler avec un arbre de décision, mais aussi essayer d’établir des corrélations entre les pertes et d’autres facteurs tels que l’âge, le lieu de résidence, le sexe, le comportement d’achat, la taille du ménage, etc. par une forme de ML sous-symbolique. Les corrélations observées peuvent ensuite être utilisées comme règles d’un arbre de décision.
L’apprentissage sub-symbolique comprend, par exemple, l’apprentissage de la langue. réseaux neuronaux artificiels (et deep learning comme mot-clé pour les réseaux particulièrement complexes → 11).
Les réseaux neuronaux sont des algorithmes qui reproduisent le traitement de l’information dans le cerveau afin d’identifier des modèles dans les données d’entrée. Ils utilisent un grand nombre de “nœuds” connectés qui forment ensemble des “couches” et traitent (“pondèrent”) les données d’entrée par étapes, parfois sur plusieurs ou de très nombreuses couches. Contrairement aux arbres décisionnels (→ 10), les réseaux neuronaux sont connectés de manière plus complexe, car chaque nœud peut être connecté à plusieurs autres nœuds de la couche suivante.
Pour que le réseau soit en mesure d’effectuer un traitement pertinent, ces pondérations doivent être correctement définies. En conséquence, la prise de décision dans les réseaux neuronaux s’effectue sous la forme d’un traitement distribué et continu d’un “Couche d’entrée” via des “Couche cachée” au niveau de sortie, le “Couche de sortie“Le réseau apprend en adaptant les poids entre les nœuds. Les arbres de décision, en revanche, fonctionnent avec des conditions explicites (“si A > X va à gauche, sinon va à droite”). Chaque nœud prend une décision qui mène à une certaine branche, c’est pourquoi les chemins de décision sont en principe entièrement compréhensibles. Les systèmes déductifs sont donc plutôt une “boîte blanche”, les systèmes inductifs une “boîte noire”.
Les facteurs de la pondération évoquée des nœuds du réseau sont améliorés par l’entraînement, en comparant la sortie du réseau avec un résultat attendu. En cas d’écart, les poids sont ajustés à l’aide de données d’entraînement supplémentaires, et ainsi de suite.
Cet entraînement peut se faire de différentes manières :
Sur le site l’apprentissage supervisé le réseau reçoit à la fois les données d’entrée et les sorties souhaitées. Le réseau apprend ainsi à représenter la relation entre les données d’entrée et la sortie. Par exemple, une entrée de photos d’animaux est fournie au réseau lorsqu’un ensemble de données contenant des photos de chiens et de chats dûment étiquetées (“étiquettes”) est simultanément mis à sa disposition. Le réseau compare les prédictions des données d’entrée avec les étiquettes et adapte les pondérations jusqu’à ce que les erreurs de prédiction soient minimisées. Il s’agit d’une procédure courante pour la classification des données, par exemple pour la classification des images, pour les filtres anti-spam (apprentissage par le marquage des e‑mails comme spam) ou pour la prévision des prix de l’immobilier (= les données étiquetées) sur la base d’informations sur la taille, la situation et l’équipement du bien immobilier.
Sur le site l’apprentissage non supervisé le réseau reçoit des données d’entrée, mais pas d’étiquettes. Il doit donc reconnaître lui-même les modèles et les structures dans les données en regroupant des points de données similaires ou en réduisant les données à certaines caractéristiques pertinentes. Cette approche convient à l’exploration de données, par exemple pour la segmentation de la clientèle (regroupement sur la base du comportement d’achat sans catégories prédéfinies), la reconnaissance de transactions inhabituelles sans définition de “inhabituel” ou la reconnaissance de groupes de thèmes dans une grande collection de textes.
Apprentissage semi-supervisé combine l’apprentissage supervisé et non supervisé – l’entraînement utilise à la fois des données étiquetées (peu) et des données non étiquetées (très nombreuses). Les étiquettes permettent de reconnaître plus facilement les modèles. Lorsque l’étiquetage des données est trop coûteux, cette approche peut être utile, par exemple lorsqu’un petit nombre de radiographies étiquetées est utilisé avec un plus grand nombre d’images non classifiées pour améliorer la précision du diagnostic, lorsque des évaluations de produits classifiées sont utilisées avec des évaluations non classifiées pour déterminer l’humeur dans de nouvelles évaluations (“analyse de sentiment”), ou dans la reconnaissance vocale, lorsque des enregistrements audio transcrits sont combinés avec des données vocales pour améliorer la précision de la reconnaissance.
Sur le site l’apprentissage par renforcement (“Reinforcement Learning”), le réseau interagit avec un environnement et “apprend” – adapte les pondérations – en récompensant et en punissant. Il s’agit d’un processus interactif d’essais et d’erreurs, utilisé par exemple pour l’entraînement d’un agent à des jeux tels que les échecs ou le go (apprentissage par des jeux répétés), pour la navigation de robots (apprentissage par la navigation dans un environnement) ou pour la gestion de l’énergie (apprentissage par l’adaptation de la distribution d’électricité en fonction des modèles de consommation).
Comme d’autres modèles ML, les réseaux neuronaux forment des règles. Toutefois, ces règles ne sont pas explicites, contrairement à une analyse d’association par exemple (→ 9). Elles ne veulent pas non plus l’être – l’objectif n’est pas de trouver des règles, mais d’obtenir une sortie qui applique des règles, mais ne les utilise pas.
n’est pas représentée (“boîte noire”). Un arbre de décision comme par exemple constitue donc une règle explicitetandis que les réseaux neuronaux règles implicites ces règles sont cachées dans les activations et les pondérations des “neurones”. Le problème des réseaux neuronaux réside donc dans le fait que les règles sont souvent difficiles à comprendre.
Il existe toutefois des approches permettant de révéler les règles implicites. Les “Local Interpretable Model-agnostic Explanations” (LIME) fonctionnent de manière similaire – elles utilisent des modèles simples tels que la régression linéaire parallèlement à l’utilisation du réseau neuronal et peuvent fournir des explications compréhensibles (p. ex. le fait que des mots tels que “gratuit” sont déterminants pour la classification d’un e‑mail comme spam).
Un Large Language Model (LLM) est basé sur un réseau neuronal (→ 11) et “comprend” le langage. Des exemples connus sont les modèles GPT d’OpenAI, Gemini de Google, LLaMA de Meta, Claude d’Anthropic, Command de Cohere, Grok de X, les modèles de Mistral, Ernie de Baidu ou Falcon du Technology Innovation Institute d’Abu Dhabi.
Sur le site Formation d’un LLM on peut distinguer une préparation préalable et la formation proprement dite.
Dans le cadre du Prétraitement les données d’entraînement (par ex. textes de livres, de sites web, de forums, de Wikipedia, etc., entre-temps également sur la base des licences correspondantes de grandes maisons d’édition comme le NY Times ; pour l’entraînement → 36) sont nettoyées. Par exemple, les contenus non pertinents ou erronés ou les spams sont supprimés, les symboles parfois superflus et les mots d’arrêt tels que “le”, “la”, etc.)
Un “tokenizer” décompose ensuite les textes en unités plus petites (les Tokens), selon qu’il s’agit d’un mot, d’un caractère unique ou d’une partie de mot. Ce dernier cas s’applique par exemple à OpenAI, qui utilise une variante de l’ ”encodage par paire d’octets”, dans laquelle les paires de caractères les plus fréquentes sont assemblées en de nouveaux jetons à partir de caractères uniques, ce qui permet d’élargir progressivement le vocabulaire et d’utiliser les mots ou parties de mots les plus fréquents dans leur intégralité. Des homonymes tels que “banque” peuvent être enregistrés sous forme de plusieurs tokens (“argent à la banque”, “assis à la banque”) en fonction du contexte.
Les tokens n’ont cependant aucune valeur en soi – ils ne sont intéressants que dans de leur Relation avec d’autres tokens. Ces relations sont établies au cours de l’apprentissage à partir des données d’entrée et peuvent être exprimées conceptuellement en termes de proximité ou de distance. Par exemple, le mot “maison” est plus proche du mot “toit” que du mot “dommage”, le jeton “grand” est plus proche du mot “gentil”, etc. Des valeurs correspondantes sont donc attribuées à chaque token. Ces valeurs sont les suivantes VecteursEn général, un vecteur est une liste ordonnée de nombres disposés avec une certaine dimensionnalité dans un certain ordre. Dans le contexte d’un LLM, un vecteur est la valeur d’un jeton en relation avec d’autres jetons. Les vecteurs appris sont alors appelés “Intégrer“Les données intégrées sont donc l’expression de la structure ou des propriétés des données.
„Dimensionnalité“signifie le nombre de valeurs numériques du vecteur. Ces nombres expriment les caractéristiques d’un jeton. Un vecteur avec une dimensionnalité de 768 signifie donc une série de 768 chiffres, chacun représentant une caractéristique apprise spécifique. Plus la dimensionnalité est élevée, plus les différences de signification saisies sont fines. Le modèle GPT‑3 d’OpenAI a une dimensionnalité de 768 à 12 288, selon la variante. Pour GPT‑4, la valeur n’est pas connue, mais elle est probablement similaire. Chaque token reçoit donc jusqu’à 12’288 propriétés lors de l’entraînement.
Les modèles formés peuvent ensuite être entraînés pour certains domaines d’application sur un ensemble de données spécifique et plus petit (“Mise au point”), par exemple des données médicales, une documentation technique, des textes juridiques ou du matériel d’une entreprise donnée. Le modèle est entraîné sur ces données de manière à affiner les compétences apprises sans les désapprendre. Les paramètres du modèle sont légèrement adaptés – le modèle apprend par exemple des termes techniques, certaines formulations ou des structures de phrases typiques. Un exemple est le EDÖBot de datenrecht (https://edoebot.datenrecht.ch/), qui se base sur un modèle d’OpenAI, mais qui a été entraîné plus avant avec du matériel relatif à la protection des données.
La performance peut également être améliorée par “Récupération-Génération augmentée”(“RAG”) peut être améliorée. Ici, un LLM est combiné avec des sources d’information externes, c’est-à-dire que des informations extérieures au modèle sont prises en compte lors de l’interrogation, par exemple des informations plus récentes ou plus spécifiques qui n’ont pas été apprises lors de la formation. Un composant de recherche (“Retriever”) recherche les données pertinentes dans une base de données externe lors de l’interrogation, le Générateur utilise ces données pour une meilleure réponse. Le PFPDT a également recours à cette méthode, il peut par exemple accéder au message relatif à la LPD en vigueur ou aux guides du PFPDT.
Au cours des négociations (→ 4), ce point central – qui détermine l’applicabilité matérielle de l’AIA – a été l’un des plus controversés, et on ne peut pas dire que le résultat soit réussi. Le projet de la Commission d’avril 2021 (https://dtn.re/dzZqxl)angelehnte Définition des termes.
L’AIA définit désormais un AIS comme suit (art. 3, point 1, et considérant 12) :
“système d’IA”, un système assisté par ordinateur conçu pour fonctionner de manière plus ou moins autonome et qui, une fois opérationnel, peut s’adapter et déduire, à partir des entrées reçues pour des objectifs explicites ou implicites, la manière de produire des sorties telles que des prédictions, du contenu, des recommandations ou des décisions susceptibles d’affecter des environnements physiques ou virtuels ;
Il s’agit donc de
un “système assisté par ordinateur” (donc pas un système biologique, par exemple – la transplantation d’un cerveau ne serait donc pas une mise sur le marché d’un AIS),
qui est conçu pour fonctionner de manière plus ou moins autonome, et
qui peut s’adapter après son entrée en service et
qui déduit, à partir des entrées reçues pour des objectifs explicites ou implicites, la manière de produire des sorties telles que des prédictions, du contenu, des recommandations ou des décisions susceptibles d’affecter des environnements physiques ou virtuels”.
En fin de compte, deux éléments sont déterminants, mais ils ne font qu’un :
Le système est conçu pour un fonctionnement autonome interprété comme tel. Cela signifie, selon le considérant 12, qu’il “ne repose pas exclusivement sur des règles définies par des personnes physiques pour l’exécution automatique d’opérations”, mais qu’il “agit, dans une certaine mesure, indépendamment de toute intervention humaine et est capable de fonctionner sans intervention humaine” ; et
il peut déduire un output à partir d’un input, étant entendu qu’il ne s’agit pas de n’importe quelle déduction, mais de “processus d’apprentissage, de raisonnement et de modélisation” (Considérant 12 ; “Inférence”).
Cela laisse toutefois ouverte la question de savoir ce que l’on entend par l’autonomie nécessaire dans l’entreprise.
La base d’un AIS est avant tout Apprentissage automatique (ML ; Q10) (considérant 12 : “l’apprentissage automatique, qui consiste à apprendre, à partir de données, comment atteindre certains objectifs”). Il serait en soi logique d’utiliser ici la distinction mentionnée entre modèles déductifs et inductifs (→ 10) et de comprendre l’AIS comme un ML qui, à la différence des modèles statistiques déterministes, ne procède pas de manière déductive, c’est-à-dire qui n’applique pas ou pas seulement des règles prédéfinies, mais qui définit des règles ou apprend au moins à pondérer des paramètres prédéfinis. Un AIS serait donc, par exemple, un modèle qui apprend, à partir de données d’apprentissage, dans quelle mesure la surface du terrain, en tant que paramètre prédéfini, a un impact sur les prix de l’immobilier, et aucun AIS ne serait un modèle qui applique des paramètres et des pondérations définis à de nouvelles données – par exemple un simple Excel avec une formule correspondante.
La distinction n’est toutefois pas si claire. Selon le considérant 12, l’AIA couvre également, en tant qu’AIS, les “concepts fondés sur la logique et la connaissance, déduits d’informations codées ou de représentations symboliques de la tâche à accomplir”. C’est le cas de l’exemple mentionné : l’Excel utilisé pour calculer les prix de l’immobilier est un concept basé sur la logique et les connaissances, qui dérive de la tâche codée (la formule Excel) (calcule les prix de l’immobilier en fonction des données d’entrée). Le fait que ce concept, c’est-à-dire la formule Excel, repose sur un entraînement n’a pas d’importance en soi, car Excel n’apprend pas en cours d’utilisation. Si l’on se basait uniquement sur la distinction entre démarche déductive et inductive, tous ces systèmes seraient exclus de la définition.
Il ne peut en tout cas pas s’agir d’un modèle en cours de fonctionnement, après la mise en service, continue à être modifiée, pour deux raisons : D’une part, selon le libellé de la disposition, l’élément d’adaptabilité n’est pas obligatoire, mais illustratif. D’autre part, les modèles d’apprentissage ne seraient pas couverts par l’AIA, ce qui concerne la grande majorité des systèmes utilisés, y compris les LLM répandus, ce qui n’est évidemment pas l’intention. Or, un système formé n’est pas vraiment autonome en fonctionnement – il traite les données d’entrée en fonction de ses paramètres, qui peuvent certes avoir été appris lors d’une phase d’entraînement, mais qui ne changent plus (jusqu’à une mise à jour et sous réserve du cas exceptionnel où un système continue à s’entraîner en fonctionnement, comme cela peut être le cas par exemple pour les systèmes de lutte contre la fraude). De ce point de vue, la plupart des systèmes sont déterministes et non autonomes.
On ne peut pas non plus se contenter de Phase de développement regarder. Au cours du développement, un modèle peut certes apprendre, et comme l’objectif du processus d’apprentissage n’est décrit que de manière fonctionnelle (par exemple, classification fiable d’images, génération d’un texte ayant un sens) et non technique, le processus d’apprentissage n’est pas déterminé à un niveau technique (la manière dont les paramètres doivent être réglés pour atteindre l’objectif d’apprentissage n’est pas prédéfinie, d’où l’entraînement). Or, le libellé de l’article 3, point 1, fait explicitement référence au “fonctionnement” et non à l’entraînement – l’entraînement est évoqué dans l’AI Act (→ 36), mais pas dans la définition du système d’IA, et il n’est pas non plus obligatoire, contrairement au test. On ne peut donc pas chercher l’autonomie nécessaire uniquement dans l’entraînement.
La question de savoir de quoi il s’agit reste donc ouverte. Le site OCDE a toutefois publié un mémorandum d’accompagnement pour sa définition parallèle du “système IA” en mars 2024, qui s’exprime un peu plus clairement sur l’autonomie requise :
L’autonomie du système IA (contenue à la fois dans la définition originale et dans la définition révisée d’un système IA) désigne le degré auquel un système peut apprendre ou agir sans intervention humaine suite à la délégation d’autonomie et à l’automatisation des processus par des humains. La supervision humaine peut intervenir à n’importe quel stade du cycle de vie du système IA, par exemple lors de la conception du système IA, de la collecte et du traitement des données, du développement, de la vérification, de la validation, du déploiement ou de l’exploitation et de la surveillance. Certains systèmes d’IA peuvent générer des sorties sans que ces sorties soient explicitement décrites dans l’objectif du système d’IA et sans instructions spécifiques d’un être humain.
L’autonomie dans l’entreprise ne se réfère donc pas à la fonction du système en tant que telle, qui est généralement déterminée, comme nous l’avons indiqué, mais à ce qu’il fait avec les données d’entrée : un système est autonome lorsqu’il peut fonctionner selon les données d’entrée sans intervention humaine et qu’il génère ainsi une sortie qui n’est pas explicitement prédéfinie. Le non-déterminisme est donc à rechercher dans le traitement des données et se rapporte à le rapport entre les intrants et les extrants.
On peut certes opposer à cela qu’il n’y a pas non plus de véritable autonomie. Si le système est entraîné, son traitement des données est déterminé par les paramètres du système. Le même input doit produire le même output, à moins qu’une fonction aléatoire ne soit intégrée. C’est souvent le cas, par exemple dans les modèles d’OpenAI (le réglage de la température permet de contrôler ce facteur dans une certaine mesure), mais même un générateur aléatoire est fondamentalement déterminé (les générateurs non déterministes fournissent des valeurs différentes pour des conditions initiales identiques, mais comme le logiciel est déterministe en soi, un facteur externe tel que la désintégration radioactive doit être pris en compte pour la randomisation, et ce facteur obéit aux lois de la nature).
L’AIA est toutefois une loi avec un objectif et non une considération de philosophie naturelle. Il faut donc l’interpréter de manière fonctionnelle, notamment en ce qui concerne les conséquences juridiques qui devraient couvrir les situations pour lesquelles elles ont été conçues. En guise de résultat intermédiaire, l’autonomie requise doit donc être atteinte au niveau de l’AIA. Traitement des données Le processus de production doit se faire de manière à ce que le résultat puisse être considéré par un être humain comme normal. ne semble pas déterminée.
Il s’agit en fin de compte d’une forme de test de Turing (→ 6) : L’AIA enregistre un système en tant que système d’IA s’il ressemble à un système d’IA. La règle générale de l’autorité autrichienne de protection des données va également dans ce sens (→ 1) :
Pour simplifier, il s’agit de systèmes informatiques capables d’exécuter des tâches, qui requièrent normalement l’intelligence humaine. Cela signifie que ces systèmes peuvent résoudre des problèmes, apprendre, prendre des décisions et interagir avec leur environnement, comme le font les humains.
Un AIS est donc un système qui, en fonctionnement, lors de la génération d’un output, est composé de différents, a priori sans que ce choix soit purement aléatoire et sans qu’il suive une instruction humaine directe, et qui remplit donc une fonction qui devrait faire penser à un être humain. Cela explique également la distinction avec le système déterminé : une personne à qui l’on indique en détail comment procéder ne doit plus réfléchir. Il ne sera donc pas possible de dire avec précision si tous les systèmes relèvent ou non de l’AIA.
AIS sont par exemple
Les chatbots
Systèmes de recommandation sur les services de streaming
Des assistants vocaux qui apprennent grâce à l’interaction avec l’utilisateur
des véhicules autonomes qui adaptent leur conduite grâce à des capteurs et des données environnementales
Systèmes de reconnaissance faciale dont la précision est améliorée par l’utilisation
Outils de traduction basés sur la ML
Systèmes de détection des fraudes dans les banques, qui apprennent à reconnaître les modèles suspects
systèmes de diagnostic dans le domaine de la santé
les plates-formes d’apprentissage personnalisées (déjà lorsqu’elles génèrent des intervalles de répétition basés sur les résultats d’apprentissage)
Filtre anti-spam
A condition que la démarche ne soit pas déterministe. De telles logiques sont déterministes, il n’y a pas de composante d’apprentissage ou de déduction (à condition que le système ne soit pas lui-même tombé sur cette corrélation).
Pas d’AIS sont par exemple
Calculs Excel, avec toutefois la réserve qu’un document Excel pourrait également être programmé en AIS
des bases de données telles que MySQL, qui fournissent des informations à la demande
Logiciels de traitement d’images, dans la mesure où ils sont déterministes, c’est-à-dire qu’ils ne génèrent pas d’images et ne sont pas non plus basés sur un LLM
Clients de messagerie qui déplacent les e‑mails dans des dossiers selon des règles fixes
le navigateur avec lequel ChatGPT est utilisé
Filtre anti-spam basé uniquement sur des listes blanches/noires
un logiciel déterministe généré par ou à l’aide d’un SIA (cela devrait concerner aujourd’hui une grande partie des logiciels lorsque le développement est assisté par IA, par exemple lors de l’utilisation de Github Copilot)
Divers autres exemples d’application se trouvent d’ailleurs dans l’atlas d’Algorithm Watch (https://dtn.re/ggJqKy).
De même, un modèle AI n’est pas un AIS, c’est-à-dire une technologie fondamentale qui n’a pas encore trouvé d’application (→ 39).
L’AIS peut alors même un produit (par exemple, un AIS pour évaluer l’aptitude des candidats à un emploi), ou il peut être utilisé comme “.système embarqué“ou “embedded AI” peut faire partie d’un autre produit (par exemple, un système de contrôle). Dans le cas des systèmes de commande, le produit correspondant ne devient donc pas un AIS dans son ensemble, comme il ressort de l’article 6, paragraphe 1, et de l’article 25, paragraphe 3 – il reste soumis aux règles applicables aux produits correspondants, mais l’ ”embedded AIS” devient un HRAIS par son installation, si le produit est couvert par l’annexe 1 (→ 28). Ce n’est que lorsque le fabricant du produit met à disposition sur le marché ou met en service le composant AIS en son nom propre qu’il devient fournisseur du HRAIS (article 25, paragraphe 3). Lors de l’évaluation de la conformité, le système de commande devra néanmoins être évalué dans le contexte du système global. Pour d’autres SIA, une répartition n’est possible que si la composante IA peut être clairement distinguée des autres composantes (par exemple, dans un système de recrutement qui sépare clairement un module IA pour le classement des candidats de la gestion des candidatures retenues).
La qualification d’AIS en tant que telle ne dit rien sur le risque qui y est lié – notamment parce que les risques ne découlent pas de la technologie, mais des conditions de son utilisation. L’AI Act répartit les cas d’utilisation de l’AIS en quatre catégories, même si ce n’est pas expressis verbis (→ 16). En outre, l’AIS connaît la GPAI, dont la réglementation a constitué une pièce de résistance lors des négociations (→ 39 et suivantes).
Non. Tout d’abord, l’UE ne peut réglementer que dans le cadre de son mandat, c’est-à-dire uniquement les activités relevant du champ d’application du droit de l’Union. Cela exclut les activités des États membres qui concernent la sécurité nationale. Ensuite, certains systèmes d’IA sont exclus de l’AIA (art. 2) :
AIS, qui sont exclusivement à des fins militaires et le sécurité nationale (art. 2, al. 3), ce qui place l’AIA à la limite du droit européen ;
AIS, qui est exclusivement destiné A des fins de recherche est développé et utilisé (art. 2, al. 6) afin de ne pas entraver la liberté de la recherche (les AIS dont les possibilités d’utilisation ne font qu’englober la recherche tombent toutefois sous le coup de l’AIA ; considérant 23) ;
AIS, le Particuliers à des fins non commerciales (article 2, paragraphe 10 ; par exemple, l’utilisation privée de ChatGPT pour l’organisation d’un mariage) ;
FOSS (art. 2, paragraphe 12), c’est-à-dire les logiciels (ou modèles) libres et à code source ouvert, à condition que la distribution ouverte soit autorisée et que les utilisateurs puissent utiliser, modifier et redistribuer le modèle gratuitement, et sous réserve que les logiciels libres restent couverts s’il s’agit d’un HRAIS (→ 28), s’ils ou leur utilisation constituent une pratique interdite (→ 27) ou s’ils interagissent directement avec les utilisateurs ou sont utilisés pour générer du contenu (art. 50 → 37) ;
AIS pendant la Phase de recherche, de test et de développement avant la mise sur le marché ou la mise en service, sauf en cas de tests en conditions réelles (art. 2, al. 8). Mais les fournisseurs d’AIS doivent bien entendu aussi respecter les exigences pendant ces phases ou plutôt préparer leur respect.
Malgré son nom, l’AIA n’est ni une réglementation globale de l’intelligence artificielle, ni un droit du comportement sur le marché, mais un droit de la sécurité des produits. Il s’inspire des principes établis de la réglementation des produits dans le marché intérieur européen, notamment dans les réglementations “New Approach”.
Le “Nouvelle approche”(ou “Nouvelle approche” ; voir à ce sujet la communication de la Commission COM(2003)0240 de 2003, https://dtn.re/0mGegd)) est un concept que l’UE a introduit dans les années 1980 pour la régulation du marché intérieur : au lieu d’édicter des règles techniques détaillées, l’UE définit des exigences essentielles pour les produits comme condition préalable à l’accès au marché. Des exigences plus détaillées sont ensuite développées par des organismes de normalisation européens (par exemple le CEN, le CENELEC ou l’ETSI). Ces normes ne sont pas obligatoires, mais leur respect confère une présomption de conformité aux produits concernés (dans l’AIA : art. 40.
La preuve de la conformité est ensuite apportée dans le Procédure d’évaluation de la conformitéL’évaluation doit être effectuée par le fabricant lui-même (autocertification) ou par un organisme notifié indépendant. Cette évaluation doit être effectuée avant la mise sur le marché du produit, donc de l’AIS, c’est-à-dire avant que le risque d’AIS ne se manifeste.
Le marquage CE indique que le fabricant a vérifié la conformité du produit, que la procédure d’évaluation de la conformité applicable a été suivie et que les spécifications sont respectées. Pour plus d’informations, voir le Guide bleu de la Commission européenne, le Guide pour la mise en œuvre de la législation européenne sur les produits 2022 du 29 juin 2022 (https://dtn.re/hrqXlb).
L’AI Act reprend cette approche, mais avec quelques spécificités :
L’AIA ne réglemente pas une technologie, mais son utilisation. Mais il exige le respect exigences fondamentales à tous les HRAIS, conformément aux articles 8 à 15. Des cas d’utilisation spécifiques sont définis par des interdictions ponctuelles (→ 27) et par les critères de classification comme HRAIS (→ 28).
L’attribution des obligations se fait par le biais des différents rôles des acteurs tout au long de la chaîne de création de valeur (→ 20 et suivantes). Ce que sont en principe les “producteurs” dans la New Approach, ce sont les fournisseurs dans l’AIA, et les “utilisateurs” sont les exploitants.
En principe, le fournisseur (→ 20) du HRAIS doit avoir un Procédure de conformité à moins que des intérêts publics particuliers ne justifient une exception (art. 16, let. f, et art. 46). La procédure d’évaluation de la conformité est définie à l’art. 43. Pour HRAIS dans le domaine de la biométrie (annexe III, ch. 1), le fournisseur peut choisir de procéder à une autocertification (procédure internequi fixe l’annexe VI) ou un organisme notifié (art. 29 et suivants → 56) (procédure externe(voir l’annexe VII).
L’admissibilité de l’autocertification présuppose l’existence de normes harmonisées (art. 40) ou de spécifications communes (art. 41) pour tous les aspects du HRAIS, c’est-à-dire de concrétisations harmonisées des exigences essentielles ou de leur mise en œuvre. En l’absence de ces normes, le fournisseur n’a d’autre choix que de passer par un organisme notifié (art. 43). Pour les autres cas d’utilisation à haut risque selon l’annexe III, la procédure d’autocertification s’applique en général (art. 43, al. 2), et pour les SIHA qui relèvent d’une réglementation de produits selon l’annexe I, section A (p. ex. les dispositifs médicaux), la procédure applicable est également valable pour l’évaluation de la conformité selon l’AIA (art. 43, al. 3).
Pour chaque HRAIS, le fournisseur doit fournir une Déclaration de conformité UE et la conserver à l’intention des autorités pendant 10 ans à compter de la mise sur le marché ou de la mise en service de l’HRAIS (art. 16, let. g, et art. 47). Avec la déclaration de conformité, il exprime que l’HRAIS est conforme aux exigences correspondantes et qu’il en est responsable (art. 47, al. 2 et 4). La déclaration de conformité doit contenir les informations visées à l’annexe V et être traduite dans une langue “aisément compréhensible” par les autorités nationales compétentes (art. 47, al. 2).
Le fournisseur d’accès doit fournir le Marque CE (art. 16, let. h, et art. 48). Il indique ainsi qu’il assume la responsabilité de la conformité aux exigences de l’AIA et, le cas échéant, aux autres exigences applicables au produit (art. 30 de l’ordonnance sur la surveillance du marché, https://dtn.re/h4EI0Y).
La mise sur le marché et la mise en service ne sont pas autorisées tant que l’évaluation de la conformité n’a pas été effectuée, et une nouvelle évaluation de la conformité est requise en cas de modification substantielle du SIAM (art. 43, al. 5).
Dans la mesure où un fournisseur spécifique au secteur Les exigences de l’AIA doivent généralement être couvertes dans le cadre défini.
De plus, les HRAIS doivent être publiés dans une revue publique. Base de données être enregistrés (art. 49).
Les HRAIS ne sont pas interdits – l’AIA est en ce sens tout à fait favorable à l’innovation. Seuls sont interdits quelques domaines d’application ou cas d’utilisation qui ont été jugés particulièrement indésirables pour la société (→ 27).
Inversement, il convient de respecter les exigences, conditions et restrictions en vigueur parallèlement, par exemple en matière de protection des données, de loyauté, de droit du travail ou de propriété intellectuelle. L’AIA n’est guère autorisé à cet égard, à l’exception de la protection des données (→ 1).
L’AIA distingue différents niveaux ou classes de risques dans la réglementation. Ce qui est déterminant, c’est avant tout l’utilisation concrète d’un AIS et non ses caractéristiques techniques en tant que telles ou les données utilisées pour l’entraînement ou lors de l’utilisation ou d’autres critères qui pourraient également se prêter à une classification des risques. Cette différenciation est en principe judicieuse ; elle est toutefois assez grossière et ne peut pas tenir compte de toutes les circonstances concrètes, par analogie avec la classification légale de certaines données personnelles comme étant sensibles. L’AIA connaît quatre niveaux de risque pour les AIS : risque inacceptable, risque élevé, risque limité ou risque de transparence et tout le reste :
AIS interdit: les AIS ou les cas d’utilisation présentant des risques inacceptables sont généralement interdits en tant que “pratique interdite” (art. 5 → 27).
HRAIS: AIS ou cas d’utilisation dans des domaines sensibles tels que les infrastructures critiques, l’éducation, l’emploi, les services publics essentiels ou l’application de la loi ; ils sont soumis aux exigences qui constituent la partie principale de l’AIA. L’article 6 régit la classification d’un AIS en tant que HRAIS (→ 28).
AIS avec risques de transparence: ce sont des AIS qui ne sont pas des HRAIS, mais qui sont destinés à interagir directement avec des personnes physiques, qui génèrent du contenu ou qui sont destinés à la reconnaissance des émotions ou à la catégorisation biométrique (art. 50 → 37). Des exigences limitées s’appliquent ici, qui visent avant tout la transparence.
Autres AISPour tous les autres AIS, l’AIS ne contient que des prescriptions marginales (→ 38).
Les obligations d’une classe de risque s’appliquent également aux classes supérieures.
Prima vista, l’AIA définit une cinquième catégorie de risques : les AIS qui “présentent un risque”, selon l’art. 79. Il s’agit d’AIA présentant des risques particuliers selon l’art. 3 n° 19 de l’ordonnance sur la surveillance du marché (https://dtn.re/JgakBQ)), c’est-à-dire des risques accrus et atypiques pour la santé, la sécurité ou les droits fondamentaux. Il ne s’agit pas nécessairement d’un HRAIS, même si cela devrait normalement être le cas. Si une autorité de surveillance du marché (→ 43) a des raisons de penser que de tels risques existent, elle examine l’AIS concerné et, si l’hypothèse est confirmée, en informe les autorités nationales compétentes. Les exploitants ont également des obligations particulières dans le cadre d’un tel système, mais désormais uniquement s’il s’agit d’un SIH.
Toutefois, les exigences matérielles pour ces AIS ne sont pas plus élevées, il s’agit uniquement d’un contrôle particulier et, si nécessaire, de l’application de la conformité. Ces AIS ne constituent donc pas une catégorie de risque à part entière et, à moins qu’ils ne soient également des HRAIS, ce qui devrait toutefois être le cas la plupart du temps, ils ne sont guère soumis à des exigences.
Les GPAIM n’entrent pas dans ces classes de risque parce qu’ils n’ont pas de domaine d’application spécifique qui pourrait être classé en conséquence. Ce n’est que lorsqu’elles deviennent des GPAIS qu’elles entrent dans une classe de risque en tant qu’AIS.
L’AIA définit plusieurs rôles qui impliquent des obligations et des responsabilités différentes en ce qui concerne les AIS – et en partie aussi les AMPI. Il suit en cela le standard de la législation européenne sur la sécurité des produits en faisant la distinction entre fournisseur, exploitant, importateur et distributeur, mais il connaît également des rôles :
Fournisseur (Fournisseur/AIS et GPAI) : L’entité (c’est-à-dire la personne physique ou morale) qui met un AIS sur le marché et qui assume la responsabilité principale de la conformité aux exigences (→ 20) ;
Opérateur (Déployeur/AIS) : entité déployant un AIS ou une GPAI (→ 21) ;
Importateur (Importateur/AIS) : entité qui importe pour la première fois dans l’UE un AIS ou une AISG d’un fournisseur de pays tiers (→ 23) ;
Revendeurs (Distributeur/AIS) : entité qui propose un AIS sur le marché communautaire sans être elle-même un fournisseur ou un importateur (→ 24) ;
Fabricant du produit (Product Manufacturer/AIS) : entité qui fabrique un produit dans lequel un AIS est intégré ;
Représentant autorisé (Représentant) : Il s’agit, selon l’art. 3, point 5, d’un organisme dans l’UE qui a été autorisé par écrit par le fournisseur d’accès à remplir en son nom les obligations ou à exécuter les procédures prévues par le présent règlement. Les représentants ont les obligations de contrôle et de coopération prévues à l’art. 22.
Personne concernée: La personne concernée n’est pas définie légalement, mais il s’agit des personnes dont les données sont traitées par un AIS. Elles ont certains droits en vertu de l’AIA (en plus des droits prévus par le RGPD).
Si une entité joue plusieurs rôles à la fois, les exigences s’appliquent de manière cumulative (considérant 83). Le considérant 83 cite l’exemple du distributeur qui est également importateur, ce qui est exclu par les définitions légales (un distributeur fournit un AIS “à l’exception du fournisseur ou de l’importateur” ; article 3, point 7). Le fournisseur, qui met en service son AIS et en est l’exploitant, est plus évident.
En outre, l’AIA définit le “Acteur”(opérateur) ; il s’agit d’un terme générique désignant les fournisseurs, les fabricants de produits, les exploitants, les agents, les importateurs et les distributeurs (art. 3, point 8). Il n’est pas souvent utilisé dans l’AIA, en général uniquement pour faciliter la référence et sans définir les conséquences juridiques pour les acteurs.
L’AIA est d’abord applicable dans l’UE. Mais il sera introduit dans le EEE-Il s’appliquera alors également à la Norvège, à l’Islande et au Liechtenstein. Actuellement, l’AIA est en cours d’examen dans l’EEE (https://dtn.re/LxZNyE)Le projet de loi ne sera formellement intégré dans le droit de l’EEE qu’après une décision du comité mixte.
Comme le RGPD, l’AI Act vise à établir une certaine protection de base et un champ d’application de niveau au sein de l’EEE (considérant 22). Il doit donc également couvrir certains cas ayant une composante interrégionale. Dans ce contexte, l’AIA fait la distinction entre les différents rôles dans la chaîne de valeur, raison pour laquelle → 17 a été placé en tête.
Selon les articles 2 et 3 (les deux dispositions sont déterminantes ensemble pour le champ d’application), il s’applique du point de vue territorial et personnel comme suit :
Pour Fournisseur (fournisseur d’accès) :
indépendamment de l’emplacement du fournisseur, lorsqu’un AIS ou un GPAIM est mis en service dans l’UE (article 2, paragraphe 1, point a) ; et
lorsque la production du système est utilisée dans l’UE (let. c → 19) ;
pour Opérateur (Deployer) :
si le Deployer est établi ou se trouve dans l’UE (lettre b). Le terme “établissement” devrait être interprété de manière large, par analogie avec le RGPD ;
si l’output du système est utilisé dans l’UE (à nouveau, lettre c) ;
pour Importateur (importateur) : s’il est établi dans l’UE et importe un AIS (art. 3, point 6) ;
pour Revendeurs (distributeur) : lorsque l’AIS est mis à disposition sur les marchés de l’UE, indépendamment de la localisation du distributeur (art. 3, point 7) ;
pour Fabricant du produit (Manufacturer) : lorsqu’ils mettent sur le marché ou en service dans l’UE un AIS avec leur produit en leur propre nom (art. 2, al. 1, let. e) ;
pour (UE)Représentant des fournisseurs d’accès étrangers (art. 2, paragraphe 1, point f)) ;
pour personnes concernées dans l’UE (art. 2, al. 1, let. g).
Une entreprise suisse peut donc être soumise à l’AIA notamment si :
vend un AIS dans ou vers l’UE (en tant que concepteur, importateur ou distributeur),
vend un autre produit dans l’UE qui utilise un AIS comme composant,
Production générée utilisée dans l’UE (→ 19).
Output est décrit à l’art. 2, al. 1, let. c :
c) les fournisseurs et les exploitants de systèmes d’IA établis ou situés dans un pays tiers, lorsque la sortie générée par le système d’IA est utilisée dans l’Union ;
Un texte ou une image générés par IA en font certainement partie. Toutefois, l’AIA ne contient pas de définition propre de la sortie générée, contrairement à l’input (art. 3, point 33). Le terme est utilisé plus fréquemment, mais toujours sans description précise (par exemple au considérant 12 pour la définition de l’AIS → 13).
Mais à certains endroits, l’output est utilisé de manière conception large dans la mesure où l’on suppose une utilisation uniforme de cette notion (par exemple à l’annexe III, ch. 8, let. b, HRAIS en cas d’utilisation pour influencer une élection ou un vote : un AIS n’est pas considéré comme un HRAIS si son output ne concerne pas directement des personnes physiques, comme c’est le cas pour un outil d’organisation de campagne : dans ce cas, l’output ne peut pas être uniquement le résultat de l’IA générative). Il est donc logique, compte tenu de l’objectif de protection de l’AIA, d’inclure également les signaux de commande générés par l’IA dans la notion d’output.
Il est donc plus important de savoir quand l’output est utilisé dans l’UE. Il ne peut s’agir de tout débordement. Il faudra plutôt considérer une certaine Sensibilité de l’impact dans l’UE, qui, par analogie aux règles de conduite sur le marché, ne peut être concrétisée que par une orientation. Le considérant 22, qui vise à empêcher le contournement mais pas à couvrir n’importe quel effet dans l’UE, parle d’ ”intention” et cite comme exemple une constellation dans laquelle il est clair qu’il n’y a pas seulement un effet de débordement, plaide également en ce sens :
Afin d’éviter que le présent règlement ne soit contourné […], il convient que le présent règlement s’applique également aux fournisseurs et aux exploitants de systèmes d’intelligence artificielle établis dans un pays tiers, dans la mesure où l’intention est d’utiliser dans l’Union la sortie générée par ce système.
et
C’est le cas, par exemple, lorsqu’un acteur établi dans l’Union sous-traite certains services à un acteur établi dans un pays tiers dans le cadre d’une activité qui doit être exercée par un système d’IA […]. Dans ces circonstances, le système d’IA exploité par l’acteur établi dans un pays tiers […] pourrait fournir à l’acteur contractuel établi dans l’Union la sortie de ce système d’IA résultant de ce traitement […].
Un fournisseur peut donc ne pas tomber sous le coup de l’AIA du seul fait de l’utilisation de l’output tant que celui-ci n’est pas destiné à être utilisé dans l’UE, c’est-à-dire qu’il est utilisé conformément à sa destination dans l’UE. Le Guide bleu (→ 15), qui reste toutefois vague, peut apporter une certaine concrétisation à cet égard.
Le champ d’application est déjà suffisamment large. Si un collaborateur d’une entreprise suisse envoie un courriel à un collègue français en utilisant un texte généré par IA, ou si une présentation contenant une image générée par IA ou un compte rendu transcrit par IA est envoyée à un destinataire dans l’UE, cela devrait suffire, à moins que l’on ne déduise du critère du caractère sensible un seuil de minimis qui s’appliquerait en plus de l’exigence d’orientation.
La question doit toutefois rester ouverte pour l’instant – on peut supposer que l’EAIB (→ 53) proposera des concrétisations à ce sujet. Pour les acteurs non européens qui ne sont que des exploitants de SIAH et pour ceux qui ne s’occupent que de SIAH non à haut risque, cette question ne joue toutefois pas un rôle aussi important que pour les fournisseurs de SIAH.
En raison de la définition légale du fournisseur, on peut en outre se demander si l’utilisation de l’output seul peut suffire ou si en outre, une mise sur le marché ou une mise en service dans l’UE est présumée. Plusieurs arguments s’opposent toutefois à cette interprétation :
Le considérant 22 étend le champ d’application aux SIH “même s’ils ne sont pas mis sur le marché, mis en service ou utilisés dans l’Union”.
En ce qui concerne les fournisseurs, l’art. 2 ne devrait plus du tout mentionner l’utilisation de l’output dans cette interprétation, car la mise en circulation dans l’UE suffit à elle seule (art. 2, al. 1). En revanche, pour l’exploitant, la mention de l’output se justifierait également si la mise sur le marché ou la mise en service sont exigées du fournisseur.
L’interprétation stricte conduirait à une situation dans laquelle un exploitant peut être soumis à l’AIA, mais pas le fournisseur du système correspondant. Étant donné que les obligations de l’exploitant présupposent, du moins en partie, que le fournisseur a lui aussi rempli ses obligations (par exemple en ce qui concerne la conservation des données log, qui n’est pas possible si le fournisseur n’a pas veillé à ce que le HRAIS soit en mesure d’enregistrer les données), un parallélisme est plus proche.
La définition légale du fournisseur permet de conclure qu’une mise sur le marché ou une mise en service n’est une condition préalable à la qualité de fournisseur que si un organisme ne développe pas lui-même un AIS, mais le fait développer. Dans le cas d’un AIS développé en interne, le développement de l’AIS est déjà suffisant selon cette interprétation (→ 20).
Pour des raisons de protection, les autorités et les tribunaux suivront probablement une interprétation large, c’est-à-dire qu’ils se contenteront de l’output. Les expériences faites avec l’interprétation du RGPD en matière de droits fondamentaux plaident en tout cas en ce sens.
Jusqu’à ce que la question soit clarifiée, il convient donc de partir du principe que l’utilisation de l’output conformément à sa destination est suffisante.
On peut toutefois se demander si une Utilisation comme Sortie est nécessaire. Cela devrait être le cas : Celui qui souhaite que des textes générés par IA soient utilisés dans l’UE pourra certes tomber sous le coup de l’AIA même s’il utilise une capture d’écran avec le texte correspondant. En revanche, ceux qui génèrent des textes pour illustrer le fonctionnement d’un LLM et qui utilisent des textes générés comme exemples et non en raison de leur contenu réel n’utilisent guère d’output dans l’UE.
Les “fournisseurs” ont le rôle que la législation sur la sécurité des produits attribue aux “fabricants”. Il s’agit des entités qui développent (ou font développer pour elles-mêmes sous leur contrôle) des AIS ou un GPAIM et qui les mettent sur le marché ou en service (article 3, point 3) :
[…] une […] entité qui conçoit ou fait concevoir un système d’intelligence artificielle ou un modèle d’intelligence artificielle d’usage général et qui le met sur le marché sous son propre nom ou sa propre marque ou qui met en service le système d’intelligence artificielle sous son propre nom ou sa propre marque, à titre gratuit ou onéreux ;Les fournisseurs portent les Responsabilité principale pour la conformité de l’AIS, par exemple par la procédure d’évaluation de la conformité, la gestion des risques, la garantie de la qualité des données lors de la formation et la surveillance après la mise sur le marché (→ 0).
La formulation de l’article 3, point 3, laisse cependant deux interprétations à :
La condition de mise sur le marché ou de mise en service d’un AIS peut être générale
soit uniquement dans le second cas, lorsqu’un AIS n’est pas développé par l’entreprise (“fait développer”).
A première vue, la première interprétation est la plus évidente. Elle est cependant loin d’être évidente. Pour l’application territoriale, il suffit que l’output soit utilisé dans l’UE (→ 19). Il serait contradictoire de supprimer la plupart des obligations parce que l’entité concernée ne met pas également sur le marché ou en service dans l’UE le (HR)AIS utilisé. En d’autres termes, cette interprétation large de la notion de fournisseur résout la contradiction interne de l’article 2, car l’utilisation de l’output dans l’UE est alors clairement suffisante. Cela plaide en faveur de l’interprétation large de la notion de fournisseur, telle qu’elle est également défendue dans la littérature.
„Mise sur le marchéLe “placement sur le marché” (“Placing on the market” ; AIS ou GPAIM) est défini à l’article 3, point 9, comme le processus par lequel un AIS ou une GPAIM donné est mis à disposition pour la première fois sur le marché de l’Union :
Cela peut se faire une fois ou de manière permanente, mais une seule fois pour chaque AIS ou GPAIM. Celui qui met un AIS à la disposition d’un client dans l’UE ne devient donc pas un fournisseur si l’AIS a déjà été mis en circulation dans l’UE.
La mise sur le marché implique une offre ou un accord de transfert de propriété, de possession ou d’autres droits sur l’AIS ou le GPAIM, à titre gratuit ou onéreux. Dans le cas d’un AIS, c’est par exemple le cas lorsqu’un AIS est conçu pour être utilisé on premise ou sous la forme d’une offre SaaS, par exemple via une interface (API ; voir considérant 97 et article 6 de l’ordonnance sur la surveillance du marché concernant la vente à distance). La mise sur le marché est effectuée par le fournisseur ou, dans le cas d’un AIS, par un importateur (voir ci-dessous). Si ces derniers transmettent un AIS à un distributeur pour une distribution ultérieure, ils mettent déjà l’AIS sur le marché (l’action suivante du distributeur est alors une “mise à disposition”).
En revanche, l’importation par une personne pour son propre usage, par exemple d’un téléphone portable équipé d’applications IA, la remise d’un AIS à des fins de test uniquement ou la démonstration d’un AIS lors d’un salon professionnel, ne constitueraient pas une mise sur le marché (voir le Blue Guide, point 2.3).
Le “mettre en service“L’article 3, point 11, définit ensuite le “Putting into service” (AIS) comme le processus par lequel un AIS est remis à l’opérateur (Deployer) pour sa première utilisation, mais aussi la première utilisation par le fournisseur (Provider) lui-même :
Quiconque développe un AIS et l’utilise lui-même est un fournisseur au sens de l’AIA, avec les obligations qui en découlent.
Les exploitants, importateurs, distributeurs ou autres entités peuvent également devenir des fournisseurs a posteriori (→ 22).
Parce que l’installation d’un AIS (“AIS embarqué”) ne devient pas lui-même un AIS, le fabricant du produit correspondant ne devient pas non plus un fournisseur au sens de l’AIA si l’AIS embarqué est utilisé sous le nom ou la marque d’une autre entité.
Dans le cas d’une Combinaison de l’AIS chaque fournisseur individuel devrait également être considéré comme un fournisseur, dans la mesure où les composants continuent d’être utilisés conformément à leur destination. Mais comme l’AIA se réfère à des “systèmes” et non à des progiciels, les composants peuvent être considérés ensemble comme des AIS s’ils forment une unité fonctionnelle.
Fabricant d’un produit réglementéL’art. 3, al. 2, de l’ordonnance sur les services de la navigation aérienne (OSP) prévoit que l’AIS doit être installé sur un produit qui fait l’objet d’une réglementation au titre de l’annexe I. Les personnes qui mettent le produit sur le marché ou le mettent en service en leur propre nom sont également considérées comme des fournisseurs (art. 25, par. 3).
Les exploitants ne conçoivent pas eux-mêmes le système, ils se contentent de l’utiliser (art. 3, point 4) – selon la législation générale sur la sécurité des produits, ce sont donc des “utilisateurs finaux”.
Toutefois, l’utilisation de l’AIS “sous l’autorité“de l’opérateur, “sous sa propre responsabilité” (article 3, point 4). Cela suppose que le système ne soit pas exploité seul pour le compte d’un autre opérateur. Reste à savoir si cela exige également que l’exploitant configure, commande, paramètre, etc. lui-même l’AIS ou s’il suffit qu’il décide lui-même de son utilisation. Si l’on part des obligations de l’exploitant et que l’on pose la question de savoir à quel moment ces obligations peuvent s’appliquer, un seuil plus bas suffit déjà, la simple utilisation sans contrôle plus poussé ne serait pas présupposée ici. “Under it’s authority” signifie, selon ce point de vue évident, que l’utilisation n’a pas lieu seule dans le sens d’un traitement de commande ou par un employé, mais par un organisme qui utilise un AIS à ses propres fins. Celui qui utilise un AIS pour un autre n’est donc pas un exploitant (mais le plus souvent un fournisseur).
L’opérateur doit respecter les Mode d’emploi (→ 35). Celle-ci est donc essentielle, car elle détermine, entre autres, l’utilisation conforme de l’AIS, c’est-à-dire la “destination” (article 3, point 12) à laquelle l’AIS est destiné, tout comme le cadre de son utilisation correcte. Si l’opérateur sort de ce cadre, il peut devenir un fournisseur (→ 22).
Dans le cas de la GPAIM, il manque un opérateur car une GPAIM ne peut pas être exploitée (→ 39).
La réponse à cette question est moins simple qu’il n’y paraît. L’art. 25 de l’AIA contient la règle de base selon laquelle un opérateur devient un fournisseur dans certaines circonstances (“deemed provider”) :
lorsqu’il se présente en tant que fournisseurLe fournisseur d’origine peut, par exemple, apposer son nom ou sa marque sur un HRAIS après que celui-ci a été mis sur le marché ou mis en service par le fournisseur d’origine,
s’il utilise le HRAIS change considérablement (tel que défini à l’article 3, point 23, de l’AIA), mais sans pour autant faire de l’HRAIS un AIS à faible risque, et
s’il utilise un AIS en dehors de sa finalité, de telle sorte qu’il ne peut le faire que au HRAIS.
Dans ce contexte, seul le “deemed provider” est considéré comme fournisseur ; le fournisseur initial est libéré de sa responsabilité. Il doit toutefois collaborer avec le nouveau fournisseur (art. 25, al. 2). Il peut sans doute fixer un prix en conséquence. L’obligation de coopérer est toutefois supprimée si le premier fournisseur a indiqué que l’AIS ne pouvait pas être transformé en HRAIS – ce qui plaide également en faveur d’une telle obligation. Rédaction du contrat.
En revanche, la simple utilisation d’un système HRAIS n’est pas suffisante pour être considéré comme un fournisseur. en dehors de l’utilisation prévue. Le fournisseur doit plutôt s’attendre à une telle situation dans une certaine mesure, comme le montre, outre l’article 25, l’article 9, paragraphe 2, point b) : Le RMS du fournisseur doit également tenir compte des risques en cas d’abus prévisibles. Ce n’est que lorsque l’abus entraîne une modification importante ou transforme un AIS en HRAIS que l’opérateur devient un “deemed provider” selon l’art. 25. Par conséquent, celui qui utilise un chatbot destiné à l’assistance à la clientèle pour sélectionner des candidats à un emploi devient un fournisseur HRAIS, mais pas lorsqu’il est utilisé pour des enquêtes de satisfaction des employés (pas de HRAIS).
Aussi un Mise au point (→ 12) ne devrait pas suffire pour devenir le fournisseur de l’AIS ayant fait l’objet d’un entraînement complémentaire approprié, à moins que l’opérateur n’offre l’AIS sous son propre nom ou ne l’utilise d’une manière telle qu’il devienne nouvellement un HRAIS. Il n’est pas certain que la qualification de l’opérateur dans le cas d’une mise au point finale s’appuie sur l’article 25 ou simplement sur l’élément non défini de “développement” de l’article 3, point 3. Dans ce dernier cas, l’opérateur pourrait plutôt être considéré comme un fournisseur dans le cas d’un finetuning. Toutefois, l’AIA utilise généralement le terme “développer” dans un sens plus large (par exemple, à l’article 2, paragraphe 6, l’AIA ne s’applique pas à un AIS “développé” [et mis en service] uniquement à des fins de recherche). En outre, le considérant 93 délimite le domaine du développement du rôle de l’exploitant. Mais ce qui devrait surtout peser dans la balance, c’est que l’utilisateur ne peut guère remplir les obligations du fournisseur en cas de finalisation, car son contrôle de l’AIS ne va pas assez loin. L’exploitant d’un SIPA ne devient pas un fournisseur du seul fait qu’il utilise un RAG (→ 12).
Sur GPAIM le modèle devient un SIGP dès qu’il est mis à disposition en tant que produit, ne serait-ce que par l’ajout d’une interface utilisateur (→ 39). Par la suite, les directives susmentionnées s’appliquent. Ainsi, celui qui achète un MGPA et le met ensuite en service pour un cas d’utilisation donné est le fournisseur de l’AIS qui en résulte.
L’importateur est une entité de l’UE qui importe un HRAIS étranger (c’est-à-dire un HRAIS proposé sous le nom ou la marque d’un autre) dans l’UE (art. 3, point 6).
L’importateur n’est pas tenu de se mettre lui-même en conformité, mais ses obligations se fondent sur celles du fournisseur – en d’autres termes, il n’est pas un simple revendeur, mais doit
contrôler que l’évaluation de la conformité a été effectuée, que la documentation technique est disponible conformément à l’art. 11 et à l’annexe IV de l’AIA, que l’HRAIS porte le marquage CE et que le soumissionnaire a désigné un mandataire (art. 23, al. 1), et
conserver la documentation à l’intention des autorités de surveillance (al. 5).
en cas de doute sur le respect des exigences essentielles, l’HRAIS ne doit pas être mis sur le marché, et
en cas de risques plus élevés (au sens de l’article 79, paragraphe 1), le fournisseur, le mandataire et les autorités compétentes de surveillance du marché doivent être informés en conséquence (article 23, paragraphe 2).
Selon l’article 3, point 7, il s’agit d’une entité qui obtient un HRAIS auprès d’un fournisseur, d’un importateur ou d’un autre opérateur et qui le met à disposition sur le marché de l’Union sans être elle-même un fournisseur ou un importateur, c’est-à-dire après sa mise sur le marché. Par “mise à disposition”, on entend toute fourniture, à titre onéreux ou gratuit, d’un AIS ou d’une AIPM en vue de sa distribution ultérieure ou de son utilisation sur le marché de l’Union (article 3, point 10).
Comme l’importateur, le distributeur doit
vérifier que l’HRAIS porte le marquage CE, qu’une déclaration de conformité et les instructions d’utilisation sont disponibles et que le fournisseur, voire l’importateur, ont indiqué leur nom ou leur marque et disposent d’un SMQ (→ 35).
En cas de doute justifié quant au respect des exigences essentielles, le HRAIS ne doit à nouveau pas être mis à disposition et le distributeur doit prendre contact avec le fournisseur ou l’importateur.
Si les défauts ne peuvent pas être corrigés, l’HRAIS doit être retiré du marché ou rappelé (par le distributeur, le fournisseur ou l’importateur ; art. 24, al. 4).
En cas de risques plus élevés (selon l’art. 79, al. 1), le fournisseur ou l’importateur et les autorités compétentes doivent être informés (art. 24, al. 4).
Ce rôle n’est pas non plus défini légalement. Il s’agit d’une entité qui fabrique un produit dans lequel un AIS est intégré. Dans certaines circonstances, cet organisme devient ainsi un fournisseur, à savoir lorsque l’AIS est une Composant de sécurité de son système, que celui-ci est couvert par une réglementation sur les produits au sens de l’annexe I et que le fabricant du produit met l’AIS à disposition sur le marché en tant que partie de son propre produit et en son propre nom, ou que le produit est mis en service au nom du fabricant du produit après sa mise à disposition sur le marché (article 25, paragraphe 3). Dans ce cas, le fabricant du produit doit s’assurer que l’AIS installé est conforme aux exigences (considérant 87).
Selon l’art. 22, le Fournisseur d’un HRAIS peut désigner un mandataire s’il est établi en dehors de l’UE. Selon l’article 3, point 5, un “mandataire” est une entité résidant ou établie dans l’UE à laquelle le fournisseur d’un AIS ou d’un modèle d’AIPPI a donné un mandat écrit (c’est-à-dire probablement sous forme de texte) et qui accepte de remplir les obligations ou de mener les procédures en son nom dans le cadre de l’AIA.
Les tâches du mandataire doivent être définies contractuellement, mais comprennent au moins le catalogue de l’art. 22, al. 3, par exemple la vérification que la déclaration de conformité et la documentation technique ont été établies et que la procédure d’évaluation de la conformité a été effectuée, la mise à disposition de certaines informations et de certains documents à l’intention des autorités et l’obligation de collaborer à l’enregistrement du SIAMP. L’art. 54 contient une disposition analogue pour les fournisseurs d’un GPAIM (→ 39).
Les mandataires peuvent et, dans certains cas, doivent se démettre de leur mandat.
Opérateur et les acteurs autres que le fournisseur n’ont pas l’obligation de désigner un mandataire.
Les AIS ou les cas d’utilisation présentant des risques inacceptables sont exceptionnellement interdits en tant que “pratiques interdites”, c’est-à-dire que la mise sur le marché, la mise en service ou l’utilisation d’un AIS dans un but correspondant est interdite (art. 5) :
Influence subliminale (art. 5, al. 1, let. a) : manipulation qui influence inconsciemment le comportement, fausse une décision et cause ainsi un préjudice. Il s’agit par exemple de formes de tromperie telles que les “dark patterns” ou le “nudging”, en particulier par un procédé si peu sophistiqué qu’il n’est pas perçu consciemment, par exemple dans un environnement virtuel (consid. 29). L’intention de tromper n’est pas une condition préalable, car la tromperie intentionnelle n’est qu’une variante de l’infraction.
Exploitation de la vulnérabilité, en raison de l’âge, d’un handicap, etc. (art. 5, al. 1, let. b). Ici aussi, il s’agit de la distorsion préjudiciable des décisions (considérant 29). L’action affirmative proportionnée n’est pas visée ;
Scoring social (art. 5, al. 1, let. c) : évaluation de personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles sur une longue période, lorsque des personnes sont traitées de manière inéquitable, c’est-à-dire lorsque l’utilisation de l’AIS aurait une conséquence inattendue ou disproportionnée pour les personnes concernées. L’évaluation de la solvabilité, qui n’est pas interdite mais hautement risquée, n’est pas couverte (→ 32) ;
Évaluation des risques pour les délits (Predictive Policing) par profilage (article 5, paragraphe 1, point d ; avec des exceptions) ;
Reconnaissance des visagesCréation de bases de données de reconnaissance faciale par le biais d’un large scraping d’images provenant d’Internet ou d’enregistrements de surveillance (art. 5, al. 1, let. e). La comparaison d’une image avec des images sur Internet, par exemple, ne serait pas couverte, car il n’y a pas de scraping ;
Reconnaissance des émotions sur le lieu de travail ou dans les établissements d’enseignement (article 5, paragraphe 1, point f ; avec des exceptions pour les préoccupations liées à la santé ou à la sécurité). La reconnaissance des émotions dans d’autres domaines n’est pas interdite. Il serait par exemple interdit de transcrire des appels et d’évaluer si un conseiller à la clientèle est suffisamment aimable ou si un collaborateur exprime des émotions négatives envers l’entreprise. Comme l’AIA n’utilise pas la notion définie de système de reconnaissance des émotions pour cette interdiction, la reconnaissance des “intentions” (art. 3, point 39) n’est pas couverte, il doit s’agir d’émotions, mais la base d’une reconnaissance d’intention peut être non seulement des données biométriques, mais aussi d’autres données ;
Catégorisation selon les données biométriquesLes données personnelles peuvent être utilisées pour identifier la race, les opinions politiques, les convictions religieuses, l’orientation sexuelle, etc. La notion de “données biométriques” est définie à l’article 3, point 34, il doit s’agir de données personnelles. Les AIS sont toutefois exclus de l’interdiction lorsque la catégorisation n’est qu’une fonction accessoire d’un autre service commercial, nécessaire pour des raisons techniques objectives (art. 3, point 40) ; par exemple lorsqu’un service en ligne utilise des caractéristiques corporelles pour l’achat de vêtements (dans la mesure où il s’agit de données biométriques) ;
Identification biométrique à distance en temps réel dans les zones accessibles au public (art. 5, al. 1, let. h, et al. 2 à 7 ; avec des exceptions). L’authentification n’est pas couverte (→ 29).
La Commission a également adopté des lignes directrices sur les pratiques interdites (→ 51).
Ces interdictions peuvent se recouper avec d’autres interdictions, par exemple des interdictions de tromperie relevant du droit de la concurrence ou des limites relevant du droit de la protection des données. Le fait qu’un AIS ne soit pas interdit ne signifie donc pas qu’il est autorisé de manière générale. Des restrictions peuvent résulter, par exemple, du droit de la protection des données et du droit de la concurrence déloyale.
AIS ou cas d’utilisation dans des domaines sensibles tels que les infrastructures critiques, l’éducation, l’emploi, les services publics essentiels ou l’application de la loi ; ils sont soumis aux exigences qui constituent la partie principale de l’AIA (→ 15). L’article 6 régit la classification d’un AIS en tant que HRAIS.
Il convient de distinguer deux cas de figure :
Le premier cas visé à l’article 6, paragraphe 1, concerne les AIS qui relèvent d’une Réglementation des produits en vertu de l’annexe I parce que l’AIS ou son cas d’utilisation est lui-même soumis à une telle réglementation ou parce qu’il a été intégré dans un tel produit en tant que composant de sécurité (au sens de l’article 3, point 14)). Le risque lié au produit est ici au premier plan, en particulier les risques pour la vie et l’intégrité corporelle. L’annexe I distingue deux catégories :
La première catégorie de la section A concerne les réglementations sur les produits qui visent à Nouvelle approche suivent la procédure. Dans ce cas, l’AIA est directement applicable. Cela concerne par exemple les machines, les jouets, les explosifs ou les dispositifs médicaux.
La seconde, dans la section B, concerne les réglementations des produits en dehors de la nouvelle approche. L’AIA est ici pas directement applicable. Au lieu de cela, les actes juridiques correspondants sont adaptés aux articles 102 et suivants de manière à ce que les spécifications du chapitre III, section 2 (articles 8 et suivants, exigences essentielles pour HRAIS) soient prises en compte dans l’arrêté sectoriel. Cela concerne les moyens de transport (aviation, chemins de fer, véhicules à moteur, etc.).
Il est supposé que le produit ou l’AIS en tant que produit permette d’effectuer une Évaluation de la conformité par des tiers (article 6, paragraphe 1, point b). La question de savoir si cela peut également couvrir les cas où une procédure interne d’évaluation de la conformité est appliquée est controversée.
Le deuxième cas, prévu à l’article 6, paragraphe 2, concerne les AIS qui, en Annexe III est mentionné. L’annexe III concerne certains domaines d’utilisation ; le point de rattachement est donc moins un risque lié au produit qu’un risque lié à l’utilisation. Il s’agit des cas suivants, énumérés de manière exhaustive, où il s’agit à chaque fois d’utiliser le HRAIS conformément à sa destination (détails 29 et suivants) :
Biométrie: utilisation de l’AIS pour l’identification biométrique à distance, la catégorisation biométrique ou la reconnaissance des émotions (cf. → 27) ;
Infrastructure critique: AIS, qui sert de composante de sécurité dans certaines infrastructures critiques (→ 31) ;
Éducation et formation: AIS pour gérer l’accès aux offres de formation, l’évaluation des résultats d’apprentissage ou le suivi lors des examens (→ 30) ;
Emploi, gestion des ressources humaines et accès au travail indépendant: AIS dans le domaine du recrutement ou pour des décisions pertinentes ou l’observation et l’évaluation des performances ou des comportements (→ 30) ;
Services de base et prestationsAIS pour l’évaluation du droit à une aide publique (par ex. assurance sociale), l’évaluation de la solvabilité, la détermination des risques et des primes dans l’assurance vie et maladie ou le triage des appels d’urgence, des interventions d’urgence et des premiers secours (→ 32) ;
AIS à l’appui des services répressifs, dans le domaine de la migration, de l’asile et du contrôle des frontières et dans celui de la justice et de la formation de l’opinion démocratique (→ 33).
Le critère déterminant est l’utilisation de l’AIS conformément à sa destination, celle-ci étant définie soit par le fabricant (art. 3 n° 12), soit par l’exploitant qui utilise un AIS en dehors de sa destination (art. 25 → Q22).
L’annexe III, ch. 1, règle les cas d’utilisation dans le domaine de la biométrie. Trois cas sont recensés :
Le premier cas est celui de la identification biométrique à distance. Celle-ci est définie légalement à l’article 3, point 41. Il s’agit des AIS destinés à identifier des personnes sans leur participation et, en règle générale, à distance. Ne sont donc pas visés les systèmes d’authentification des locaux et des appareils tels que les scanners d’iris, de visage, de veines et d’empreintes digitales (voir aussi considérant 54). En revanche, une caméra installée au-dessus d’une autoroute serait couverte si un AIS compare les images avec une base de données.
Le deuxième cas concerne catégorisation biométrique de personnes, lorsqu’un AIS est destiné à déduire des “attributs sensibles ou protégés” (par exemple, les personnes sont classées en ethnies par l’IA). Ne sont pas couverts (→ 27) les cas où la catégorisation n’est qu’une fonction accessoire d’un autre service commercial, nécessaire pour des raisons techniques objectives (article 3, point 40).
Le troisième cas est celui des AIS pour Reconnaissance des émotions. Selon l’article 3, point 39, il s’agit d’AIS qui doivent détecter ou prédire des “émotions ou intentions”, mais sur la base de données biométriques. Cela concerne par exemple un AIS qui déduit des émotions à partir de la voix – coloration, tremblement, etc. Une déduction sur la santé devrait également être possible, dans une interprétation large. La base doit toutefois être une donnée biométrique. Si les émotions (ou les intentions) sont évaluées sur la base d’e-mails ou d’autres textes, l’AIS ne devient pas pour autant un HRAIS. Toutefois, dans le domaine du travail, le résultat peut être différent, car un AIS devient un HRAIS, entre autres, lorsqu’il sert à influencer des décisions sur les conditions de travail, la promotion, le licenciement, etc. ou à observer les performances ou le comportement (→ 30). Cela vaut bien entendu aussi lorsque les données d’entrée sont des données biométriques.
Comme mentionné, l’annexe III mentionne des cas d’application (use cases) considérés comme à haut risque (→ 28). L’annexe III, ch. 3, concerne les la formation (continue) professionnelle et non professionnelle :
Un premier cas d’application (let. a) est celui des AIS qui doivent être utilisés pour l’accès ou l’admission aux offres de formation constater. “Déterminer” signifie “déterminer”, comme il ressort du considérant 56 – un AIS dont l’utilisation prévue est une fonction de gatekeeper pour les offres de formation, par exemple lors d’un examen d’admission ou d’aptitude, est donc à haut risque. Cela ne concerne pas seulement les décisions relatives à l’accès en tant que tel, mais aussi le choix entre différentes offres de formation. “Déterminer” est plus que “participer”. Un AIS qui émet des recommandations sur l’accès ne serait donc pas peu couvert.
Un deuxième cas est celui d’un AIS utilisé pour Évaluations des “résultats d’apprentissage est déterminée. Il s’agit donc en particulier de l’évaluation des examens. La formulation de la loi va toutefois un peu plus loin, l’évaluation des résultats d’apprentissage semble suffire en soi. La fonction de correction d’un programme d’apprentissage des langues, par exemple, serait donc également couverte si elle utilise un AIS, même s’il ne s’agit que de réussir un niveau.
Le troisième cas se recoupe avec le premier : il s’agit de l’AIS qui sert à Évaluation du niveau d’éducation que quelqu’un doit obtenir ou à laquelle elle est admise. Les tests d’aptitude devraient être au premier plan. Il doit toutefois s’agir de la formation – la gestion des talents avec une évaluation de l’aptitude à un autre poste basée sur l’IA ne serait pas couverte ici (mais relèverait d’un autre cas d’utilisation, voir ci-dessous).
Le quatrième cas concerne les AIS qui, conformément à leur destination, sont utilisés pour Surveillance des examens être utilisés dans l’éducation et la formation.
Reste à savoir dans quelle mesure le Notion d’éducation doit être comprise. Selon le considérant 56, cela comprend “les établissements ou les programmes d’enseignement et de formation professionnelle à tous les niveaux”, c’est-à-dire l’enseignement scolaire, mais aussi la formation initiale et continue. En revanche, les formations internes qui ne servent pas à la formation continue, par exemple les formations à la conformité, ne sont guère prises en compte. Une évaluation assistée par IA des questions de test lors d’une telle formation ne devrait donc pas suffire. Il s’agit toutefois d’un cas limite, et les cas d’utilisation liés au poste de travail (voir ci-dessous) sont souvent utilisés (en particulier l’évaluation du comportement et des performances d’un collaborateur).
L’annexe III, point 4, concerne spécifiquement le Espace de travail. Il convient de faire la distinction entre la procédure de recrutement et la relation de travail :
Comme pour tous les cas d’utilisation de l’annexe III, cette utilisation doit toutefois se situer dans le cadre d’une utilisation conforme à la destination. La formulation d’une offre d’emploi avec ChatGPT ne suffit donc pas. En revanche, celui qui construit un AIS qui catégorise les candidatures sur la base d’un modèle OpenAI exploite un HRAIS. Il devrait également suffire qu’un AIS examine les candidatures pour savoir si elles correspondent bien à une offre d’emploi – une forme de recherche sémantique qui correspond à un “tri” des candidatures.
les décisions relatives aux conditions de travail, à la promotion et au licenciement. Il n’est pas clair, à première vue, si l’AIS doit prendre ces décisions ou seulement les influencer. Le texte de la loi indique que c’est le cas : il s’agit d’utiliser l’AIS pour prendre des décisions qui, par la suite, influencent les conditions de travail, etc. Mais l’AIS ne doit pas prendre lui-même la décision ; il suffit qu’il soit destiné à soutenir une décision humaine sur de tels points (le texte anglais est plus clair : “intended to be used to make decisions”, et non “intended to make decisions”). L’objectif de la loi selon le considérant 57 plaide également en faveur de cette interprétation (protection des perspectives de carrière et des moyens d’existence contre une “influence sensible”).
Deux autres cas d’utilisation s’appliquent de manière complémentaire. Le premier est un Attribution des tâches sur la base du comportement ou des caractéristiques ou qualités personnelles, l’autre les Observation et évaluation des performances et du comportement. Un AIS devient donc un HRAIS dès lors qu’il évalue un comportement, même si aucune décision n’est prise, préparée ou influencée par la suite en ce qui concerne l’évolution de la carrière (même si les évaluations des performances ou du comportement basées sur l’IA sont généralement conçues pour prendre de telles décisions).
Un HRAIS serait donc une évaluation AI de la performance d’un collaborateur dans un centre d’appels. En revanche, un HRAIS ne serait pas une optimisation AI des trajets du service externe. En principe, le comportement des collaborateurs concernés est certes évalué. Mais l’évaluation ne se réfère pas à ce comportement, elle en fait abstraction. Dans ce cas, la progression professionnelle n’étant pas menacée, il ne devrait pas s’agir d’un HRAIS. En revanche, si l’IA évalue ensuite si un conducteur suit l’itinéraire optimal, il s’agirait d’un HRAIS. La connaissance humaine du résultat ne devrait pas être une condition préalable. Un assistant à la conduite qui fait des propositions en fonction de l’itinéraire effectivement emprunté serait donc un HRAIS. Il en va de même pour un AIS utilisé dans le cadre de la production pour optimiser les processus.
Cela ne dit pas tout ce qui fait partie du “domaine d’activité”. De même, la travail indépendant peut être couvert, d’autant plus que le considérant 57 mentionne également “l’accès au statut d’indépendant”. Tous les cas de figure mentionnés peuvent également s’appliquer lorsque la sélection, la décision, l’observation ou l’évaluation ne concerne pas un salarié, mais un travailleur indépendant. Un statut similaire à celui d’un salarié, c’est-à-dire une certaine dépendance et subordination, doit toutefois être exigé ; dans le cas contraire, il n’existe pas de besoin de protection correspondant.
L’AIA ne prévoit ici qu’un seul cas : Un AIS est un composant de sécurité utilisé (conformément à sa destination) dans la commande ou l’exploitation d’une infrastructure numérique critique au sens du point 8 de l’annexe de la directive 2022/2557 relative à la résilience des installations critiques (directive CER), https://dtn.re/D2CV56) et dans le domaine du transport routier ou de la distribution d’eau, de gaz, de chaleur ou d’électricité.
L’annexe III, ch. 5, règle trois autres cas qui sont pertinents dans le domaine privé.
Le premier concerne l’AIS pour les “Évaluation de la solvabilité et du crédit“personnes physiques (mais pas les personnes morales). C’est relativement large, car l’AIA ne définit pas ce qui relève de ces notions. En tout état de cause, il ne s’agit pas seulement des agences de renseignements commerciaux et des fournisseurs comparables d’informations sur la solvabilité, mais aussi des entreprises qui procèdent à des évaluations correspondantes pour elles-mêmes ou pour des sociétés du groupe (pour autant qu’elles soient basées sur l’IA).
Toutefois, les AIS utilisés pour “Détection de la fraude financièresont utilisés”. Le texte parle ici de “sont utilisés” et non de “sont destinés à être utilisés”. Cela pourrait laisser penser qu’un AIS n’est pas (plus) un HRAIS, même si son objectif premier est l’évaluation de la solvabilité, mais qu’il n’est utilisé que pour la détection de la fraude. Cela est toutefois en contradiction avec le considérant 58, qui est plus restrictif : seuls les AIS “prévus” pour la prévention de la fraude sont exclus. Mais il est en même temps plus large : les AIS prévus par le droit de l’Union pour la détection de la fraude financière ou le calcul des exigences de fonds propres ne sont pas des HRAIS. Cela pourrait poser un problème à un prestataire de services financiers suisse qui utilise un AIS pour calculer les exigences suisses en matière de fonds propres (donc pas sur la base du droit de l’UE) et qui met le résultat à la disposition de sa maison mère de l’UE et tombe donc localement sous le coup de l’AI Act (→ 18).
Un AIS devient également un HRAIS lorsqu’il est utilisé dans le cadre d’un système de navigation par satellite. Domaine de l’assurance sert à l’examen du risque ou à la fixation des primes, mais uniquement dans le domaine de l’assurance-vie ou de l’assurance-maladie.
De même, un HRAIS est un AIS utilisé pour le triage des Appels d’urgence ou l’intervention du service sanitaire, de la police ou des pompiers, ou encore la priorité accordée aux premiers secours.
Enfin, selon l’annexe III, point 6, les AIS qui sont utilisés pour l’établissement des faits et l’application du droit par des Arbitrages et médiateurs (outre les tribunaux étatiques → 33). Seraient par exemple couverts les AIS qui établissent les faits à partir de dossiers, mais comme toujours sous réserve d’un soutien subordonné au sens de l’article 6, paragraphe 3 (→ 34), par exemple “l’anonymisation ou la pseudonymisation de jugements, de documents ou de données judiciaires, la communication entre le personnel ou les tâches administratives” (considérant 61). Les AIS peuvent également constituer un HRAIS dans le domaine privé en relation avec l’influence sur les élections et les votes (→ 33).
L’annexe III contient quelques cas d’utilisation qui ne sont pertinents que dans le secteur public (mais qui incluent les entreprises travaillant pour le compte d’une autorité publique).
L’annexe III, point 5, concerne les AIS destinés à être utilisés par ou pour les autorités publiques afin d’évaluer si un droit à “les prestations et services publics de base“doit être limitée ou supprimée. Cela concerne par exemple la sécurité sociale ou l’aide sociale. Ces cas sont toutefois limités à l’application aux personnes physiques.
L’annexe III, point 6, concerne différents cas d’utilisation dans le domaine de la Poursuites judiciaires, et ch. 7 dans le domaine de la migration, de l’asile et du contrôle des frontières. Le point 8 a) concerne ensuite les AIS destinés à être utilisés par ou pour une autorité judiciaire (y compris le règlement privé des litiges → 32) en tant qu’aide à l’établissement des faits et à l’application du droit. Selon la lettre b, les AIS sont également à haut risque lorsqu’ils servent à influencer le résultat d’une élection ou d’un vote ou le comportement électoral. Il doit toutefois s’agir d’une influence directe – les instruments AIS destinés à fournir un soutien administratif à des campagnes ne sont pas concernés.
Oui. Contrairement aux cas à haut risque liés aux produits, il est possible, dans le cas des classifications liées à l’utilisation selon l’annexe III (→ 28), de démontrer l’absence de risque élevé au sens d’une exception.
C’est le cas, selon l’article 6, paragraphe 3, à deux conditions cumulatives :
Premièrement, le Utilisation de l’AIS inoffensive être, parce qu’il n’implique pas un risque plus important et n’influence pas de manière significative une décision (considérant 53). C’est le cas s’il n’est destiné qu’à cela,
d’effectuer une “tâche procédurale étroite” (par exemple, structurer des données non structurées ou catégoriser des données), ou
d’améliorer le résultat d’une activité humaine en tant que simple couche supplémentaire (par ex. lors de l’ ”amélioration” désormais courante d’un texte rédigé par un être humain), ou d’identifier des modèles de décision ou des écarts par rapport à des modèles de décision antérieurs (par ex. lors d’une vérification visant à déterminer si un examen humain s’écarte d’un modèle prédéfini), ou
d’effectuer une simple tâche préparatoire à une évaluation (par ex. lors de la traduction de textes destinés à un usage humain ultérieur) ; dans chaque cas, voir l’art. 6, al. 3 et le considérant 53). La Commission européenne (→ 51) devrait proposer des concrétisations dans ce domaine.
Deuxièmement, l’AIS ne doit pas pas de profilage (loc. cit.). Pour cette notion, l’AIA renvoie au RGPD (https://dtn.re/8YoXjh); Art. 4 n° 4.
Un fournisseur souhaitant bénéficier de cette exception doit documenter cette évaluation avant la mise sur le marché ou la mise en service (article 6, paragraphe 4). Il doit également enregistrer l’AIS de la même manière qu’un HRAIS (art. 49).
Toutes les étapes intermédiaires dans le cadre de la chaîne de création de valeur ne sont pas des déclencheurs principaux d’obligations et de contraintes. En principe, les AIS doivent satisfaire aux exigences essentielles au moment de leur mise sur le marché ou de leur mise en service (→ 15). Toutefois, d’un point de vue pratique, d’autres opérations déclenchent également certaines obligations.
Ces obligations peuvent être réparties comme suit, sachant que l’attribution aux différentes phases ne peut pas être précise, car l’AIA ne définit pas juridiquement toutes ces étapes, qui doivent être distinguées de facto, comme point de rattachement des obligations. Les détails relatifs aux différentes obligations figurent dans les questions et réponses citées en référence. Il convient en outre de noter que pour les produits visés à l’annexe III, section B, ce n’est pas l’AIA qui s’applique, mais les obligations reprises dans la réglementation correspondante des produits (→ 28).
| Système | Rouleau | Déclencheur | Conséquences juridiques et exigences | |
|---|---|---|---|---|
| Fournisseur | ||||
| 1 | HRAIS | Fournisseur | Approvisionnement des composants du système | Si le fournisseur achète des composants à un sous-traitant – il s’agira de composants logiciels, car dans une combinaison de matériel et de logiciel, seul le logiciel devrait être considéré comme un AIS et l’achat de matériel ne constitue donc pas une installation dans un AIS (→ 28) -, il doit conclure un accord avec le fournisseur. Conclure un contrat. Le contrat doit être écrit, c’est-à-dire probablement documenté sous forme de texte, et régler les points essentiels pour le fournisseur du SIHAR (art. 25, al. 4). L’AI Office (→ 52) doit fournir des modèles à cet égard. Cette obligation ne s’applique pas à la fourniture d’une IGP non conforme à une licence libre et ouverte (FOSS), mais les fournisseurs de logiciels correspondants sont encouragés à fournir des informations pertinentes pour les fournisseurs HRAIS (considérant 89). |
| 2 | HRAIS | Fournisseur | Formation | Un HRAIS ne doit pas nécessairement être entraîné – il ne s’agit pas d’une obligation en soi (art. 10, al. 6 ; pas non plus d’une mesure de réduction des risques : considérant 65), mais plutôt d’une circonstance qui peut conduire à la qualification d’AIS (→ 13). Dans le cas d’un entraînement, certaines exigences s’appliquent toutefois. Tout d’abord, il faut se demander avec quelles données un HRAIS doit ou peut être entraîné. Pour cela, l’article 10, paragraphe 3 (gouvernance des données) fixe des exigences : Les données de test doivent tenir compte de caractéristiques ou d’éléments qui sont typiques des conditions-cadres du HRAIS dans son utilisation conforme à sa destination, c’est-à-dire qu’elles doivent être significatives. Cela peut inclure l’utilisation de Données personnelles ou même des données personnelles sensibles (→ 58), par exemple pour les systèmes qui classent les candidatures et doivent être entraînés de manière à présenter un biais aussi faible que possible en ce qui concerne l’âge, le sexe, l’origine ethnique, etc. L’article 10, paragraphe 5, contient donc une base juridique pour l’utilisation de telles données à des fins de test et de formation, sous réserve des conditions énoncées au paragraphe 5, points a à f. Pour la formation elle-même, le prestataire doit ensuite prendre certaines décisions et documenter. C’est ce que stipule l’article 10, paragraphe 2. Il s’agit avant tout de l’obtention de données d’entraînement, de la préparation de données de test (p. ex. étiquetage, marquage, etc.), de la définition d’hypothèses et d’objectifs, de la métrique permettant de mesurer si les objectifs sont atteints ou si les hypothèses sont correctes, ou encore d’éviter les distorsions (biais). Même pendant la phase d’entraînement, ledit Système de gestion des risques (RMS) est pertinente pour HRAIS (cf. art. 9). Certes, comme nous l’avons mentionné, le fournisseur n’est pas tenu d’organiser une formation en tant que mesure de réduction des risques, mais il y est néanmoins invité (considérant 65). Dans cette mesure, le SGR devrait bien entendu également couvrir la phase de formation. |
| 3 | HRAIS | Fournisseur | Tester | Contrairement à une formation, un test est une activité en soi. Obligatoire du fournisseur HRAIS (article 9, paragraphe 6). Les HRAIS doivent être testés afin de déterminer les risques et, le cas échéant, de les atténuer. Les tests doivent être effectués au moment approprié, mais avant la mise sur le marché ou la mise en service (al. 8). Pour les tests effectués par les fournisseurs de modèles d’AMPI présentant des risques systémiques, voir Q41. Pour la réalisation des tests, on trouve dans Art. 9 et 10 Objectifs . Les exigences relatives aux données d’entraînement s’appliquent également aux données de test (article 9, paragraphe 6 ; cela concerne également l’utilisation éventuelle de données personnelles). Selon l’art. 9, al. 7, les tests peuvent, dans certaines circonstances et pour une durée maximale de 12 mois, être effectués dans des conditions de travail normales. Conditions réelles pour autant que les conditions de l’art. 60 AIA soient respectées. De tels tests nécessitent entre autres un plan spécifique qui doit être approuvé par l’autorité de surveillance du marché compétente (art. 60, al. 4, let. a et b). |
| 4 | HRAIS | Fournisseur | Mise sur le marché ou mise en service | Juridiquement, c’est la date de mise sur le marché ou de mise en service de l’HRAIS qui est déterminante pour la la plupart des obligations du fournisseur. Il doit donc en tenir compte lors de la planification et de la conception d’un AIS qui est potentiellement un HRAIS. Tout d’abord, le fournisseur doit documentation technique (art. 11 et annexe IV). C’est la pièce maîtresse : la documentation technique sert à documenter le respect des exigences essentielles et constitue donc la base de l’évaluation de la conformité. Elle contient notamment une description du HRAIS, de ses composants, de son développement ou de son entraînement, y compris les données utilisées à cet effet et la validation et les tests déterminants, de son fonctionnement et de son architecture, de la garantie de la surveillance humaine (→ 37), de son contrôle, du système de gestion des risques et de la procédure de surveillance du marché (annexe IV). De même, les Mode d’emploi (art. 3, point 15, et art. 13, paragraphe 3) fait partie de la documentation technique (annexe IV, point 1, lettre h). Celle-ci mentionne et définit l’utilisation conforme du SIAH (art. 3, point 15), qui détermine si l’AIS est un SIAH au sens de l’annexe III (→ 32) et contribue à délimiter le domaine de responsabilité du fournisseur, et qui constitue un critère essentiel pour les exigences de conformité (voir par exemple l’art. 8, point 1, l’art. 10, point 3, ou l’art. 26, point 6, de l’AIA). Les instructions d’utilisation doivent contenir des informations précises, complètes, correctes, claires et compréhensibles et être mises à disposition sous forme numérique ou physique, mais sans barrières (art. 13 al. 3) et contenir au moins les informations visées à l’art. 13 al. 3 let. a à f. Il s’agit notamment de la finalité, des caractéristiques et des limites de performance du HRAIS, des mesures prises pour assurer la surveillance humaine, de la durée de vie du HRAIS et des informations relatives à la maintenance et aux mises à jour ainsi qu’une description de la capacité de connexion. Sur la base de la documentation technique, le fournisseur doit ensuite, en temps utile avant la mise sur le marché ou la mise en service, vérifier la conformité du produit avec les exigences de la directive. Procédure d’évaluation de la conformité (→ 15), et il doit fournir pour chaque HRAIS une EU-Déclaration de conformité et les conserver à l’intention des autorités (art. 47). En outre, il doit à chaque fois fournir un document physique ou numérique Marque CE l’exception de l’indication de son nom ou de sa marque et d’une adresse de contact (art. 16 let. b → 15). Les obligations essentielles sont en outre les suivantes : - QMS: Selon l’art. 17, le fournisseur doit disposer d’un système de gestion de la qualité (QMS) qui “garantit” de manière générale le respect de l’AIA, c’est-à-dire un système de politiques, de processus et d’instructions couvrant toutes les phases du HRAIS, y compris un concept de conformité avec les compétences et les responsabilités, des indications sur le développement et sur les tests et la validation du HRAIS, le cas échéant. les normes harmonisées applicables à l’évaluation de la conformité, la gouvernance des données (→ 36), la surveillance du marché (→ 43), la gestion des incidents (→ 45), la communication avec les autorités, la documentation requise et la gestion des ressources. Le système de gestion des risques fait également partie du SMQ (art. 17, al. 1, let. g ; le RMS peut être géré séparément, mais doit être couvert par le SMQ). - RMSLe fournisseur doit établir, mettre en œuvre, documenter et maintenir un système de gestion des risques (RMS) pour chaque SIHAR (art. 9). Le RMS doit accompagner le HRAIS tout au long de son cycle de vie – même après sa mise sur le marché ou sa mise en service – et être tenu à jour – ce qui exige une gouvernance appropriée. En particulier, les risques pour la santé, la sécurité ou les droits fondamentaux, notamment ceux des personnes vulnérables, doivent être identifiés et évalués en permanence, non seulement en ce qui concerne l’utilisation conforme, mais aussi les abus prévisibles (art. 9, al. 2, let. b), et ils doivent être atténués de manière appropriée dès la phase de conception et de développement, dans la mesure où le fournisseur peut atténuer les risques (let. d). Cela comprend également, par exemple, l’information de l’exploitant ou sa formation (art. 9, al. 5, let. c). Les risques identifiés et acceptés devraient alors être mentionnés dans le manuel d’utilisation. Le fournisseur peut s’inspirer des normes correspondantes pour le RMS (→ 61). - Garantir la capacité de logLe fournisseur doit s’assurer que le système est techniquement capable d’enregistrer des données (art. 12). L’art. 12, al. 2 – 3, précise ce qui doit faire l’objet d’une journalisation. - Intelligibilité de l’output (art. 13) : Le fournisseur doit s’assurer que l’output du système est clair et compréhensible pour l’utilisateur. Les instructions d’utilisation servent à cela (art. 3, n° 15), mais des mesures de conception seront également nécessaires. - Surveillance humaine (art. 14) : Le système HRAIS doit être conçu de manière à permettre une surveillance humaine efficace. cet effet, des mesures intégrées dans le HRAIS entrent en ligne de compte (p. ex. interfaces utilisateur, un kill switch, etc.), mais aussi des instructions à l’attention de l’exploitant lui permettant de comprendre suffisamment le HRAIS (cf. art. 11, art. 14, al. 4 et annexe IV). - Fiabilité, robustesse et cybersécurité (art. 15) : Un HRAIS doit être conçu de manière à être fiable et robuste et à garantir un niveau suffisant de cybersécurité. Le fournisseur doit donc s’assurer, entre autres, que le HRAIS est suffisamment résistant aux menaces physiques et numériques et que les mesures appropriées pour protéger l’intégrité, la confidentialité et la disponibilité du HRAIS sont efficaces. Pour les systèmes qui continuent d’apprendre après leur mise sur le marché ou leur mise en service, le risque de biais et de boucles de rétroaction doit être mitigé. La Commission européenne (→ 51) doit contribuer au développement de critères de référence et de mesures (art. 15, al. 2, AIA). - Accessibilité par le design (art. 16) : L’accessibilité doit être intégrée dans la conception du HRAIS. Les exigences découlent en détail de la directive 2016/2102 relative à l’accessibilité des sites web et des applications mobiles des organismes du secteur public et de la RL 2019/882 sur les exigences en matière d’accessibilité pour les produits et services (art. 16, let. l). - InscriptionLes fournisseurs doivent enregistrer HRAIS auprès de la Commission (→ 51) s’ils sont considérés comme des HRAIS conformément à l’annexe III (cas d’utilisation) (→ 28). Pour ce faire, ils doivent au moins fournir les informations visées à l’annexe VIII, section A. |
| 5 | HRAIS | Fournisseur | Apparition de risques particuliers | Si le fournisseur prend connaissance de risques particuliers au sens de l’article 79, paragraphe 1, il doit immédiatement en rechercher les causes et en informer les autorités de surveillance du marché compétentes (article 82, paragraphe 2 → 45). |
| 6 | HRAIS | Fournisseur | Survenance d’un incident grave | En cas de détection d’un incident grave (→ 45), le fournisseur doit immédiatement informer les autorités de surveillance du marché compétentes (→ 55), enquêter sur l’incident et évaluer les risques mitigés. Pour les fournisseurs de GPAIM présentant des risques systémiques, voir ci-dessous. |
| 7 | AIS | Fournisseur | Mise sur le marché ou mise en service dans l’UE | En cas de mise sur le marché ou de mise en service d’un AIS dans l’UE, le fournisseur est soumis à l’AIA (→ 18) et doit désigner un mandataire dans l’UE (→ 26). |
| 8 | AIS | Fournisseur | Utilisation de l’output dans l’UE | Même si un organisme utilise un AIS de manière à ce que sa production soit utilisée conformément à sa destination dans l’UE, il tombe sous le coup du Champ d’application de l’AIA (→ 18) et doit-il fournir un Be mandaté commander dans l’UE (→ 26). |
| 9 | AIS | Fournisseur | Utilisation de l’AIS | L’utilisation de l’AIS par un fournisseur déclenche également pour lui l’exigence d’AI Literacy (→ ). |
| 10 | AIS | Fournisseur | AIS génératif | Dans le cas des AIS – il s’agira principalement de GPAIS, mais d’autres AIS seront également couverts – qui génèrent des contenus synthétiques (audio, image, vidéo, texte), les fournisseurs doivent veiller à ce que l’output soit disponible dans un format lisible par machine est reconnaissable comme étant produit artificiellement ou manipulé (“watermarking” → 37). |
| 11 | AIS | Fournisseur | AIS pour une interaction directe avec les personnes concernées | Si un SIA (y compris un HRAIS, le cas échéant) est destiné à une interaction directe avec les personnes concernées, le fournisseur doit veiller, dès la phase de conception et de développement, à ce que les personnes physiques soient informées des Interaction avec un AIS informé devenir (si ce n’est pas évident dans les circonstances données → 37). |
| Fabricant du produit | ||||
| 12 | HRAIS | Fabricant du produit | Intégration d’un AIS dans un produit | Les fabricants d’un produit réglementé qui est soumis à une réglementation de produit selon l’annexe I parce qu’un AIS a été installé en tant que composant de sécurité (au sens de l’article 3, point 14) et qui mettent le produit sur le marché ou en service en leur propre nom sont considérés comme des fournisseurs au sens de l’AIA (article 25, paragraphe 3) et ont les obligations correspondantes. |
| Importateurs et négociants | ||||
| 13 | HRAIS | Importateur | Importation | Les obligations de l’importateur (“Importer” → 23) sont beaucoup plus étroites que celles du fournisseur, car la responsabilité principale reste celle du fournisseur. L’importateur a tout d’abord surtout l’obligation de vérifier les mesures de conformité du fournisseur et s’il doute de la conformité de l’HRAIS, il ne doit pas le mettre sur le marché. S’il découvre des risques au sens de l’art. 79, al. 1, il doit en outre informer le fournisseur, les mandataires et les autorités de surveillance du marché (art. 23, al. 2 → 45). D’autres obligations découlent de l’art. 23, al. 3 à 7. |
| 14 | HRAIS | Opérateur, importateur, distributeur | Apparition de risques particuliers | Lorsqu’un opérateur ou un importateur a des raisons de penser qu’un SIPAH présente des risques particuliers pour la santé, la sécurité ou les droits fondamentaux (art. 79), il doit immédiatement informer le fournisseur ou le distributeur (dans le cas de l’opérateur) ou le fournisseur et son mandataire (dans le cas de l’importateur) ou toute autre autorité compétente. le fournisseur et l’importateur ou tout autre organisme concerné (dans le cas du distributeur), ainsi que l’autorité compétente de surveillance du marché, et suspendre l’utilisation du système HRAIS (art. 26, paragraphe 5, art. 23, paragraphe 2, et art. 24, paragraphe 4 ; art. 82, paragraphe 2 → 45). |
| 15 | HRAIS | Revendeurs | Distribution | Un commerçant est une personne qui met un HRAIS à disposition sur le marché (→ 20). Les obligations des distributeurs sont similaires à celles des importateurs (art. 24). |
| Opérateur | ||||
| 16 | HRAIS | Opérateur | Utilisation | Les exploitants (→ 21) doivent utiliser les systèmes HRAIS inventorier (cela découle indirectement de l’art. 26). Ils doivent en outre veiller à ce que toutes les données d’exploitation pertinentes soient automatiquement consigne et conservés pendant une période déterminée, et ils doivent se conformer, lors de l’utilisation du HRAIS, aux Instructions du fournisseur (art. 26, paragraphe 1). Ils doivent également veiller à ce que les données d’entrée soient conformes à leur finalité (c’est-à-dire adaptées à l’objectif du SIRE) et suffisamment représentatives (art. 26, par. 4 → 36). Il est également essentiel de surveillance humaineL’exploitant doit s’assurer qu’une surveillance humaine est possible pendant le fonctionnement (art. 26, par. 2) et il doit surveiller en permanence le fonctionnement du système (art. 26, par. 5). En cas de suspicion de risque particulier au sens de l’article 79, paragraphe 1 (→ 45), ils doivent informer le fournisseur ou le distributeur et l’autorité de surveillance du marché en conséquence et cesser d’utiliser le système HRAIS (art. 26, paragraphe 5 ; ce qui suppose qu’ils puissent réagir en conséquence). En cas d’incident grave (→ 45) constaté, il convient d’informer immédiatement le fournisseur, puis l’importateur ou le distributeur et l’autorité de surveillance du marché (cf. également art. 73). |
| 17 | HRAIS | Opérateur | Utilisation sur le lieu de travail | Si un employeur utilise un HRAIS sur le lieu de travail, il doit informer les travailleurs et les représentants des travailleurs qu’ils seront concernés par son utilisation (art. 26, al. 7). Les obligations de collaborer prévues par le droit applicable sont réservées. |
| 18 | HRAIS | Opérateur | Utilisation pour les décisions | Des exigences particulières s’appliquent lorsqu’un HRAIS doit être utilisé pour prendre des décisions (il se peut également qu’un AIS devienne ainsi un HRAIS : Art. 25 et Annexe III → 28). Si le HRAIS Prend des décisionsLes personnes concernées doivent être informées de tout changement ayant des conséquences juridiques ou d’autres conséquences importantes (art. 13 et 25, paragraphe 11, → 37) et, en cas d’utilisation de données à caractère personnel, les personnes concernées doivent être informées. décisions AI automatisées les personnes concernées ont le droit de s’y opposer (article 86 ; en outre, les exigences pertinentes de la législation applicable en matière de protection des données peuvent bien entendu s’appliquer). En outre, l’opérateur doit s’assurer que les données d’entrée sont pertinentes, exactes et à jour pour le système (voir ci-dessus). |
| 19 | HRAIS | Opérateur | Identification biométrique à distance | Si un HRAIS est utilisé pour l’identification biométrique à distance 4i.au sens de l’annexe III, ch. I, let. a, les résultats doivent être vérifiés et confirmés séparément par au moins deux personnes physiques compétentes avant que des décisions ne soient prises ou des mesures prises (art. 15, al. 4). |
| 20 | HRAIS | Opérateur | Utilisation d’un système de reconnaissance des émotions ou de catégorisation biométrique | En cas d’utilisation d’un système de reconnaissance des émotions ou d’un système de catégorisation biométrique, les exploitants doivent informer les personnes concernées de l’exploitation et des données personnelles utilisées (→ 37). |
| 21 | HRAIS | Opérateur | Survenance d’un incident grave | Si un incident grave est constaté, l’opérateur doit immédiatement informer à la fois le fournisseur, puis l’importateur ou le distributeur, et les autorités de surveillance du marché compétentes (article 26, paragraphe 5, et article 72 → 45). |
| 22 | AIS | Opérateur | Exploitation | Dans le cadre de l’exploitation d’un AIS, seules les exigences en matière d’AI Literacy (→ 38) s’appliquent. |
| 23 | AIS | Opérateur | Engagement pour les Deepfakes | Si un AIS (qui peut également être un HRAIS) est utilisé pour des deepfakes, l’opérateur doit divulguer la fabrication artificielle (article 50, paragraphe 4 → 37). |
| 24 | AIS | Opérateur | Génération d’output | Si les opérateurs utilisent un AIS pour créer ou manipuler du texte et que le texte est publié pour informer le public sur des questions d’intérêt public, ils doivent divulguer la création artificielle ou la manipulation (article 50, paragraphe 4 → 37). |
| GPAIM | ||||
| 25 | Fournisseur | Mise sur le marché d’un GPAIM dans l’UE | Les fournisseurs d’un GPAIM entrent dans le champ d’application de l’EIA s’ils mettent un GPAIM sur le marché de l’UE (→ 18). Dans ce cas, ils doivent désigner un mandataire dans l’UE (→ 26). | |
| 26 | Fournisseur | Proposer un GPAIM à intégrer dans un AIS | L’AIA ne considère pas l’AMPI comme un HRAIS, mais comme une étape préalable à un AIS (→ 39). Le fournisseur du modèle GPAI doit Fournisseurs qui intègrent la GPAIM, doit donc fournir des informations sur le modèle GPAI et son évolution, conformément aux exigences de l’annexe XII (art. 53, paragraphe 1, point b). Il doit notamment établir une documentation technique (art. 53, al. 1, let. a), non pas selon l’annexe IV comme pour les fournisseurs HRAIS, mais selon sa propre annexe XI. Étant donné que les modèles GPAI sont généralement des LLM qui sont entraînés avec une masse de données, le fournisseur du modèle doit en outre fournir un Politique de conformité au droit d’auteur européen (art. 53, al. 1, let. c ; voir Q0), et il doit mettre à disposition du public des informations sur les données d’entraînement (art. 53, al. 1, let. d ; l’AI Office → 52 doit élaborer un modèle à cet effet). Sont toutefois exemptés de ces obligations les fournisseurs qui utilisent le GPAIM dans le cadre d’une licence libre et ouverte à la source (FOSS) lorsqu’ils mettent les paramètres du modèle à la disposition du public. Il existe une exception à cette règle pour les modèles AMPI présentant des risques systémiques (→ 39). En revanche, les exigences générales applicables aux fournisseurs HRAIS ne s’appliquent pas aux fournisseurs GPAIM (→ 39 ; tant qu’ils ne sont pas également des fournisseurs HRAIS). | |
| 27 | Fournisseur | Proposer un GPAIM avec des risques systémiques | Le fournisseur d’une GPAIM présentant un risque systémique (→ 39) a les obligations de tous les fournisseurs de GPAIM. En outre, il doit d’abord soumettre le modèle à la Commission européenne.Signaler à la CommissionAu plus tard deux semaines après que le modèle a atteint le seuil de risque systémique (art. 52, al. 1). La commission tient à jour une liste publique correspondante (art. 52, al. 6), le prestataire pouvant tenter de faire rayer son modèle comme n’étant pas d’importance systémique (→ 41). En outre, le fournisseur concerné est tenu, en vertu de l’art. 55, al. 1 - évaluer et, le cas échéant, atténuer les risques systémiques, - évaluer le modèle dans la perspective de la gestion des risques, y compris par des tests d’attaque (Adversarial Testing ou Red Teaming), - documenter les informations sur les incidents graves (→ 45) et les mesures d’atténuation possibles et informer immédiatement l’AI Office (→ 52) en conséquence, - assurer une cybersécurité adéquate. |
Les tests et les validations, et en particulier la formation, sont des aspects essentiels de l’AIS. L’AIA contient des dispositions particulières à cet égard :
Les fournisseurs sont tenus d’enregistrer le SIRE avant la mise sur le marché ou la mise en service. tester (art. 9, paragraphe 6).
Les données utilisées pour l’entraînement et les tests (cf. art. 3, n° 29 et 31) doivent être ” appropriées “.Procédures de gouvernance et de gestion des données”(art. 10, al. 1 et 2). Il convient notamment de définir comment les décisions conceptuelles correspondantes sont prises, quelles données sont nécessaires et comment elles sont obtenues (en particulier les données personnelles), comment les données sont préparées (par exemple par annotation, étiquetage, nettoyage, mise à jour, enrichissement et agrégation), comment les hypothèses de test sont formulées et comment traiter un éventuel biais (art. 10, al. 2).
Les données d’entraînement, de validation et de test doivent, dans la mesure du possible, être utilisées conformément à l’usage prévu du HRAIS. pertinentes, représentatives, exemptes d’erreurs et complètes doivent être conformes à la loi. Cela implique également qu’ils disposent de caractéristiques statistiques appropriées (article 10, paragraphe 3) et qu’ils reflètent ou prennent en compte le contexte de leur utilisation (paragraphe 4).
Dans certaines circonstances, un biais ne peut être évité ou détecté que si les données utilisées pour les formations, les tests et les validations sont Données personnelles contiennent des données personnelles. Dans ce cas, l’article 10, paragraphe 5, contient exceptionnellement une base juridique au sens des articles 6 et 9 du RGPD, c’est-à-dire même pour des catégories particulières de données à caractère personnel, pour autant que certaines conditions soient respectées afin de garantir l’économie des données et la protection des données concernées. Cela doit être documenté dans le registre de traitement.
Le fournisseur doit informer les acteurs en aval, notamment via la documentation technique et les instructions d’utilisation (→ 35). Le site documentation technique doit contenir, entre autres, des informations sur l’entraînement et les jeux de données d’entraînement utilisés (annexe IV, ch. 2, let. d ; de même pour les fournisseurs d’un GPAIM selon l’annexe XI, ch. 2, let. b et selon l’annexe XII, ch. 2, let. c, si le GPAIM doit être intégré dans un AIS), et les Mode d’emploi doit également contenir des informations sur les ensembles de données d’entraînement, de validation et de test utilisés (art. 13, al. 3, let. b, ch. 6).
Les HRAIS doivent généralement présenter un niveau suffisant de Cybersécurité de la formation. Cela inclut une protection suffisante contre les attaques pendant la phase d’entraînement, par exemple par la manipulation des données d’entraînement (“data poisoning”) ou des composants pré-entraînés, tels qu’un GPAIM, qui sont utilisés pendant l’entraînement (“model poisoning” ; art. 15, par. 5).
Les fournisseurs d’un GPAIM doivent, comme les fournisseurs d’un HRAIS, décrire dans la documentation technique la procédure de formation et de test. documenter (art. 53, paragraphe 1, point a), et ils doivent établir un résumé du contenu utilisé pour la formation et publient (art. 53, al. 1, let. d ; à l’exception de la FOSS).
La quantité de calculs utilisés pour l’entraînement est déterminante pour la classification d’une GPAIM en tant que telle avec les risques systémiques (art. 51, paragraphe 2).
Le site Autorités de surveillance du marché peuvent demander l’accès, entre autres, aux dossiers de formation, de validation et de test (art. 74, paragraphe 12).
Des facilités pour l’entraînement s’appliquent ensuite dans le cadre de la Laboratoires réels (→ 48).
Ces obligations s’adressent par nature aux fournisseurs. Opérateur ont des obligations différentes et propres en ce qui concerne la qualité des données (→ 35).
L’AI Act met particulièrement l’accent sur la transparence, en particulier pour les AIS qui prennent des décisions. Cela peut également s’appliquer aux AIS qui pas de HRAIS sont des produits. En particulier, le propre article Les deux premiers paragraphes concernent les fournisseurs et les deux suivants les opérateurs.
Les fournisseurs ont notamment les obligations suivantes :
Conception du systèmeLes fournisseurs doivent concevoir le système HRAIS de manière à ce que son fonctionnement soit transparent, c’est-à-dire que les dépenses puissent être interprétées et utilisées en connaissance de cause (art. 13, al. 1). L’AIA ne précise pas de manière exhaustive comment cela doit être garanti.
Mode d’emploiLes HRAIS doivent être accompagnés chacun d’un mode d’emploi (→ 35 n° 6).
Interaction avec les personnes concernéesDans le cas des AIS destinés à interagir avec les personnes concernées (par exemple les chatbots), celles-ci doivent être informées de l’interaction avec un AIS, sauf si cela est évident dans les circonstances (article 50, paragraphe 1), par exemple dans le cas d’un service de traduction ou d’un chatbot tel que ChatGPT. Le cas échéant, les fournisseurs de l’AIS concerné doivent s’en assurer. Pour cela, la désignation comme “bot” peut souvent suffire.
Contenu synthétiqueFournisseurs d’AIS : Les fournisseurs d’AIS doivent identifier les sorties synthétiques dans un format lisible par une machine et veiller à ce qu’elles soient reconnaissables comme étant générées artificiellement ou manipulées (article 50, paragraphe 2). Cette obligation concerne à nouveau les fournisseurs et non les exploitants (voir le point suivant). Il convient de se référer ici aux travaux de la Coalition for Content Provenance and Authenticity (C2PA ; https://c2pa.org/).
Sont exclus les HRAIS ayant une simple fonction de soutien pour un traitement standard ou sans modification importante de l’input. Aucune obligation de marquage ne s’applique donc aux textes rédigés par un être humain et traités sur DeepL ou ChatGPT. Au-delà du texte, cela doit également s’appliquer, par analogie avec l’art. 50, al. 4, lorsqu’un texte est généré par un AIS, mais qu’il a été retravaillé ou du moins contrôlé de manière pertinente par un être humain ; dans ce cas, l’être humain s’est approprié le texte, raison pour laquelle il ne doit plus être traité comme synthétique.
Les opérateurs ont notamment les obligations suivantes :
Dans le cas d’œuvres manifestement artistiques, créatives, satiriques, fictionnelles ou analogues, la mention de la fabrication ou de la manipulation artificielle doit être faite de manière à ne pas nuire à la représentation ou à la jouissance de l’œuvre.
AIS génératifLes opérateurs d’un AIS généré doivent révéler que le contenu a été généré artificiellement ou manipulé (article 50, paragraphe 4). Cela ne concerne toutefois que les textes publiés lorsqu’il s’agit d’informer le public sur des questions d’intérêt public et non pas dans la mesure où les textes générés ont été vérifiés humainement ou contrôlés sur le plan rédactionnel et que quelqu’un assume la responsabilité rédactionnelle de la publication. Une exception s’applique ensuite au domaine de l’application de la loi.
Reconnaissance des émotions: L’exploitant d’un système de reconnaissance des émotions (non interdit → 27) ou d’un système de catégorisation biométrique doit informer les personnes physiques concernées (art. 50, al. 3 ; à nouveau avec une exception pour le domaine de la poursuite pénale).
DécisionsSi l’opérateur d’un HRAIS au sens de l’annexe III (cas d’utilisation → 28) utilise le HRAIS pour prendre ou aider à prendre une décision concernant des personnes physiques, celles-ci doivent être informées en conséquence (article 26, paragraphe 11).
Surveillance humaineL’article 26 contient des dispositions relatives à la supervision humaine des opérateurs, qui ont également un aspect de transparence.
Les informations obligatoires doivent être fournies de manière claire, précise et accessible au plus tard lors de la première interaction ou suspension (article 50, paragraphe 5).
Sur GPAIM des mesures de transparence sont également prescrites, mais séparément à l’art. 53 (cf. → 40 et 42). D’autres exigences peuvent s’appliquer selon d’autres directives, par exemple lors du traitement de données personnelles en vertu des obligations d’information et de transparence du droit applicable en matière de protection des données.
La “IA literacy” ou “compétence en matière d’IA” désigne les aptitudes nécessaires pour utiliser un AIS en connaissance de cause et en étant conscient des risques (art. 3, point 56). L’article 4 exige donc des mesures visant à transmettre cette compétence au personnel et aux auxiliaires (dans la mesure où ils sont appelés à utiliser un AIS). Il s’agit principalement de formations, d’instructions et d’autres informations.
Cet “upskilling” est la seule obligation explicite que l’AIA impose aux fournisseurs et aux exploitants de tous les AIS. De tels AIS peuvent toutefois être soumis à des directives sectorielles et, s’ils sont fournis aux consommateurs, la législation générale sur la sécurité des produits peut s’appliquer. La question de savoir si la LRFP suisse s’applique également aux AIS qui ne sont pas intégrés dans un produit tel qu’un robot n’a pas été définitivement tranchée. D’autres obligations découlent des exigences de transparence pour les AIS dans des constellations particulières (→ 37).
Les GPAIM sont régies séparément dans leur propre chapitre V. Cela est dû à l’histoire législative, où la réglementation des GPAI a été contestée jusqu’à la fin (→ 3). Au sein des modèles d’AMPI, une catégorie particulièrement délicate est réglementée, les modèles d’AMPI “présentant des risques systémiques” (→ 41).
GPAIM sont des “modèles d’IA” (pas de terme défini) qui sont généralement utilisables, qui remplissent “avec compétence un large éventail de tâches différentes” et qui peuvent être intégrés dans des AIS en aval (art. 3, point 63). Il s’agit avant tout de Large Language Models (LLMs) comme ChatGPT ou Claude d’Anthropic, etc. L’applicabilité générale est présumée lorsqu’un modèle comporte au moins un milliard de paramètres et qu’il a été “entraîné avec une grande quantité de données, avec une autosurveillance complète” (consid. 98 → 12). En revanche, un modèle, par exemple un LLM, qui a été entraîné pour un domaine d’application restreint ne serait pas un GPAIM.
Il est important de noter qu’un GPAIM n’est pas un AIS. Il n’est créé que par Ajout de composants supplémentaires à l’AIS et, le cas échéant, à l’HRAIS (cons. 97 : “devrait être clairement défini et distingué de la notion de systèmes d’IA” ; “bien que les modèles d’IA soient des composants essentiels des systèmes d’IA, ils ne constituent pas en eux-mêmes des systèmes d’IA”). Donc : modèle AMPI + autre composant = AIS. Il faut peu de choses pour passer du modèle AMPI au SIA (RH) : une interface utilisateur suffit (considérant 63).
Il est également possible qu’un GPAIM soit intégré dans un autre modèle et que ce dernier devienne ainsi un GPAIM (considérant 100). Les LLM peuvent également faire l’objet d’un entraînement supplémentaire (p. ex. par le biais d’une mise au point finale → 12). Si le champ d’application s’en trouve suffisamment réduit, il est concevable que le modèle correspondant n’ait plus d’utilité générale.
Le fournisseur d’une AMPIM – c’est-à-dire l’entité qui développe et met en circulation l’AMPIM – devient donc le fournisseur du SIA (RH) dès qu’il fait une utilisation concrète de l’AMPIM et que le SIA qui en résulte est mis à disposition sur le marché ou mis en service. Suivant cette logique, l’article 53 exige notamment que le fournisseur de GPAIM fournisse au fournisseur d’AIS en aval certains Mettre des informations à disposition (et ce, même si ce n’est pas un HRAIS).
Un LLM (→ 12) d’OpenAI serait un exemple de modèle GPAI. En revanche, ChatGPT dispose d’une interface utilisateur et devrait donc être un AIS (même si cela n’est pas incontestable). Si un tiers utilise un modèle d’OpenAI pour construire son propre chatbot, c’est ce tiers, et non OpenAI, qui fournit le chatbot en tant qu’AIS. Cela vaut bien sûr aussi si le tiers en question adapte le chatbot à ses propres besoins par un finishing.
Outre le GPAIM, l’AIA définit également GPAIS (systèmes d’IA à usage général ; article 3, point 66). Les SIPA sont un sous-ensemble des AIS et sont soumis aux réglementations correspondantes. C’est pourquoi l’AIA ne mentionne les SIPA que de manière marginale (à l’article 3, point 68, à l’article 25, paragraphe 1, point c), à l’article 50, paragraphe 2, et à l’article 75, paragraphe 2, ainsi que dans certains considérants).
Les obligations du fournisseur de GPAIM (→ 20) sont, comme mentionné, définies dans un propre chapitre sont réglés. Les exigences imposées aux fournisseurs HRAIS – en particulier l’art. 16 de l’AIA et les dispositions qui y sont renvoyées – ne s’appliquent pas aux fournisseurs GPAIM. Les fournisseurs GPAIM doivent cependant
un documentation technique du GPAIM, y compris la procédure de formation et de test et les résultats de l’évaluation. Les informations minimales sont définies à l’annexe XI. Sur demande, elle doit être mise à la disposition de l’AI Office et des autorités nationales compétentes (art. 53, paragraphe 1, lettre a). Une exception à cette règle s’applique aux FOSS (art. 53, paragraphe 2) ;
documenter d’autres informations sur le GPAIM (en particulier conformément à l’annexe XII) et les fournir aux Fournisseurs d’AIS en aval (art. 53, paragraphe 1, lettre b). L’exception pour les FOSS s’applique également (article 53, paragraphe 2) ;
à une stratégie de Respect du droit d’auteur de l’UE disposer d’un droit d’auteur. Cela inclut également une indication sur la manière dont, dans le cas de l’exception de Text and data Mining (→ 59), une réserve d’utilisation au sens de l’article 4, paragraphe 3, de la directive sur le droit d’auteur (https://dtn.re/c6zFb9)) (art. 53.1.c.). Il convient de noter que, selon le considérant 106, cette exigence s’applique probablement aussi aux fournisseurs de GPAIM non européens qui commercialisent une GPAIM dans l’UE ;
un résumé de la Données de formation publier (pour cela, l’AI Office doit élaborer un modèle), sous réserve des secrets d’affaires (considérant 107).
Ils doivent également fournir, le cas échéant, un Mandataire désigner (art. 54 AIA → 26). Comme ailleurs, la commission peut concrétiser davantage les exigences (→ 51).
Les risques systémiques sont des risques qui, en raison de la “portée” de la GPAIM ou de ses conséquences négatives potentielles “pour la santé publique, la sécurité, la sûreté publique, les droits fondamentaux ou la société dans son ensemble”, ont un impact significatif et peuvent se propager dans toute la chaîne de valeur (art. 3, point 65).
Ce n’est toutefois pas la définition légale qui détermine si cela s’applique à une GPAIM, mais les critères de l’article 51, paragraphe 1. Un risque systémique existe donc dans deux cas :
Si le GPAIM a été créé via “Des capacités à haut rendement“Cela doit être évalué à l’aide de méthodes appropriées, comme par exemple des benchmarks (art. 51, paragraphe 1, lettre a), mais cela est en tout cas le cas lorsque “la quantité cumulée des calculs utilisés pour son entraînement” est supérieure à 1025 opérations en virgule flottante. Les opérations en virgule flottante sont définies à l’article 3, point 67, comme une grandeur mathématique. Ce seuil devrait être adapté à l’avenir (considérant 111).
si les Commission européenne décidequ’il existe un risque systémique, l’annexe XIII fournissant les critères correspondants (let. b et art. 52, al. 4 – 5). Il s’agit de la performance du modèle, exprimée entre autres par le nombre de paramètres ou l’étendue des données d’entraînement, mais aussi de la taille du marché du modèle.
Le prestataire doit d’abord soumettre le GPAIM présentant des risques systémiques à la Signaler à la Commission (→ 51), dès que possible lorsque l’AMPIM a atteint le seuil des risques systémiques, mais au plus tard après deux semaines (art. 52, al. 1). Il peut ensuite tenter de démontrer qu’exceptionnellement, sa GPAIM ne présente pas de risques systémiques si la qualification initiale repose sur le critère matériel de l’article 51, paragraphe 1, point a). Il doit pour cela présenter à la Commission les arguments correspondants. S’il ne convainc pas la Commission, la GPAIM est inscrite sur la liste des risques systémiques (art. 51, al. 3). – Si la commission a considéré d’office que l’AMPIM présente un risque systémique, le prestataire peut demander à tout moment un réexamen (art. 51, al. 5).
Fournisseurs du GPAIM avec des risques systémiques ont des obligations supplémentaires, c’est-à-dire en plus des obligations des fournisseurs de GPAIM moins sensibles. Ils doivent (art. 55) :
évaluer le GPAIM de manière standardisée ;
évaluer et réduire les risques systémiques au niveau de l’UE
documenter les informations sur les incidents graves et les mesures correctives possibles et, le cas échéant, informer l’AI Office et les autorités nationales compétentes ; et
garantir une cybersécurité suffisante.
La surveillance du marché est un élément central de l’AIA – elle doit garantir à la fois la conformité des AIS dans l’intérêt des personnes concernées et un level playing field.
Les fournisseurs doivent donc avoir un Système de surveillance du marché après la mise sur le marché des HRAIS (art. 71, paragraphe 1). Cela inclut la collecte, la documentation et l’évaluation des données sur les performances des SIHRA (qui peuvent être obtenues par l’intermédiaire des opérateurs) tout au long du cycle de vie du SIHRA.
Ce système comprend notamment un Plan d’observation de l’HRAIS après sa mise sur le marché. Ce plan fait à son tour partie de la documentation technique visée à l’annexe 4 (→ 35, point 6) ; la Commission doit encore définir la forme que doit prendre un tel plan (art. 72, paragraphe 3). Dans la mesure où un HRAIS relève de l’annexe I, section A (par exemple les dispositifs médicaux), les fournisseurs peuvent également intégrer les exigences de l’AIA dans les systèmes et plans déjà existants (art. 72, par. 4).
La surveillance du marché comprend également l’obligation d’informer le public en cas de Non-conformité de réagir (→ 44), certains Incidents à signaler (→ 45), et les pouvoirs correspondants des autorités.
Plus généralement, les AIS constituent en principe aussi des produits au sens de la Marchéü
Ordonnance sur le contrôle de la qualité (art. 74, paragraphe 1 ; https://dtn.re/JgakBQ)). Les autorités de surveillance du marché (→ 55) peuvent donc intervenir chaque fois qu’un AIS – qui ne doit pas nécessairement être un HRAIS – est susceptible de compromettre la santé ou la sécurité des utilisateurs ne respecte pas la législation d’harmonisation applicable (article 16, paragraphe 1, du règlement relatif à la surveillance du marché.
Ce n’est pas seulement en cas d’incidents graves qu’il faut réagir (→ 45), mais bien entendu aussi chaque fois qu’un HRAIS ne répond plus aux exigences correspondantes. A cet égard, l’AIA n’engage pas seulement la responsabilité du fournisseur, mais aussi celle d’autres acteurs.
Si les fournisseurs ont des raisons de penser qu’un HRAIS n’est plus conforme à l’AIA, à n’importe quel moment après sa mise sur le marché ou sa mise en service, ils doivent immédiatement remédier au défaut ou, le cas échéant, retirer le HRAIS du marché. retirer, désactiver ou rappeler (art. 20, paragraphe 1). Le “retrait” signifie que la mise à disposition d’un HRAIS se trouvant déjà dans la chaîne d’approvisionnement est empêchée (art. 3, point 17), et le “rappel” signifie que les HRAIS sont restitués ou au moins mis hors service ou désactivés (art. 3, point 16).
Les fournisseurs doivent également respecter le marché en aval informer en conséquence, c’est-à-dire les négociants, les exploitants, le mandataire et les importateurs (art. 20, al. 1). Dans la mesure où le HRAIS présente en outre un risque au sens de l’art. 79, al. 1, AIA, les obligations correspondantes s’appliquent (→ 45).
Les acteurs en aval sont également impliqués en cas de non-conformité. Dans ce cas, les importateurs ne peuvent pas mettre l’HRAIS sur le marché tant que la conformité n’a pas été rétablie (article 23, paragraphe 2), et il en va de même pour les distributeurs en ce qui concerne la mise à disposition sur le marché (article 24, paragraphe 23).
Aussi Procuré ont des responsabilités : S’ils ont des raisons de croire que le fournisseur enfreint l’AIA, ils doivent mettre fin à leur mandat et en informer l’autorité de surveillance du marché compétente et, le cas échéant, l’organisme notifié, ainsi que les raisons de leur décision (article 22, paragraphe 4).
Dans le cadre de la surveillance du marché (→ 43), certains incidents doivent être documentés et notifiés. Cette obligation incombe aux fournisseurs d’HRAIS, et elle est couverte par “incidents graves” déclenchés. Il s’agit des dysfonctionnements, mais aussi, plus généralement, des incidents entraînant directement ou indirectement la mort ou une atteinte grave à la santé, une perturbation “grave et irréversible” de la gestion ou du fonctionnement des infrastructures critiques, une violation des droits fondamentaux ou des dommages importants aux biens ou à l’environnement (art. 3, point 49).
Si un tel incident se produit, le fournisseur doit le signaler aux autorités compétentes. Autorités de surveillance du marché (→ 54), des règles spéciales s’appliquant à certains HRAIS. La déclaration doit être faite dès la constatation par le fournisseur, mais au plus tard 15 jours après en avoir pris connaissance par le fournisseur ou également par l’exploitant (art. 73, al. 2).
Lorsqu’un incident a un large impact (“widespread infringement”) ou concerne une infrastructure critique, le délai de notification est réduit à deux jours (art. 73 al. 3 AIA), et en cas de décès, sur dix jours (al. 4). Comme dans le droit de la protection des données ou pour les déclarations à la FINMA, il est possible de travailler avec une déclaration initiale et une déclaration ultérieure.
Après la notification, les autorités de surveillance du marché informent les autorités nationales compétentes. Si nécessaire, elles doivent également ordonner, dans un délai de sept jours, le rappel ou le retrait du HRAIS du marché ou l’interdiction de sa mise à disposition sur le marché (art. 73, par. 8, en relation avec l’art. 19 de la directive sur les produits cosmétiques). Art. 19 de l’ordonnance relative à la surveillance du marché (https://dtn.re/ElQE2G).
Le fournisseur doit également enquêter sur l’incident et évaluer les risques et, si possible mitigation (art. 73 al. 6 AIA), en collaboration avec les autorités compétentes.
Outre les fournisseurs, les Opérateur Obligations en cas d’incident grave. Vous devez signaler ces incidents au Communiquer le fournisseur (art. 26, al. 5, et art. 72). Pour les HRAIS particulièrement sensibles ou en cas d’utilisation dans des infrastructures critiques, il faut sans doute s’attendre dans la pratique à des réglementations contractuelles de cette obligation de déclaration, même si elle découle déjà de l’AIA.
Il convient de distinguer les incidents graves du cas où un HRAIS entraîne des risques particuliers, à savoir des risques élevés atypiques pour la santé ou la sécurité ou les droits fondamentaux (art. 79, paragraphe 1). Dans ce cas, différents rôles ont des obligations correspondantes. Si une autorité de surveillance du marché a des raisons de penser que de tels risques existent, elle examine l’AIS concerné et, si cette hypothèse est confirmée, elle en informe les autorités nationales compétentes. De même, Opérateur ont des obligations particulières dans un tel système s’il s’agit d’un HRAIS.
Toutes les personnes (personnes physiques et morales) ont le droit de déposer une plainte auprès de l’autorité de surveillance du marché compétente (→ 55) si elles ont des raisons de penser qu’une disposition de l’AIA a été violée (art. 85, paragraphe 1). Pour cela, une personne ne doit pas être particulièrement concernée – les plaintes de concurrents sont également possibles.
Il n’est pas question d’une augmentation Décision les personnes concernées ont également le droit de demander à l’opérateur une explication sur le rôle de l’AIS dans la décision et sur les éléments clés de la décision (→ 35 n° 13).
Personnes concernées ont également le droit de déposer une plainte auprès de l’AI Office (article 89, paragraphe 2). Cela vaut également pour les fournisseurs qui ont intégré un GPAIM dans leur propre AIS.
A cela s’ajoutent des droits en vertu d’autres bases juridiques, notamment aussi en vertu du droit applicable. Droit de la protection des données (→ 58) et, le cas échéant, selon les dispositions contractuelles. Des demandes de dommages et intérêts peuvent également être envisagées si les conditions sont réunies.
Pour les PME, la mise en œuvre des exigences de l’AIA sera un défi, du moins dans la mesure où elles sont actives en tant que fournisseurs. Celui qui achète un GPAIM et le met en circulation en tant que HRAIS devient ainsi fournisseur du HRAIS – il devrait donc y avoir un assez grand nombre de PME qui couvrent un certain cas d’utilisation sur la base d’un LLM et qui sont fournisseurs pour ce cas d’utilisation.
En principe, les dispositions de l’AIA tel quel s’appliquent également aux PME. L’AIA contient toutefois quelques dispositions destinées à soutenir les PME ou les PMI dans sa version anglaise :
L’art. 62 oblige les États membres à prendre des mesures de promotion en accordant aux PME un accès prioritaire aux laboratoires d’IA, en organisant des mesures de sensibilisation et de formation pour les PME, en permettant de poser des questions sur l’AIA et les laboratoires d’IA et en associant les PME à l’élaboration des normes (→ 15).
Les PME doivent participer au forum consultatif (art. 67, paragraphe 2).
Les intérêts des PME doivent être pris en compte dans les codes de conduite (article 95, paragraphe 4).
Pour les amendes, le taux est légèrement inférieur (art. 99, al. 6).
Pour les micro-entreprises au sens de la recommandation de la Commission C(2003)1422 (https://dtn.re/U7vlKH)), l’art. 63, al. 1, prévoit en outre un allègement du SMQ (→ 35).
La promotion de l’innovation est inscrite dans divers considérants de l’AIA, et sa plus grande contribution à la promotion de l’innovation réside sans doute dans le fait qu’il ne s’agit pas d’une loi d’interdiction (à quelques exceptions près, Q0). Le chapitre VI (art. 57 ss.) est ensuite expressément consacré à la promotion de l’innovation.
Deux éléments principaux servent à cela. Le premier élément est constitué par les “Laboratoires réels d’IA”(le terme anglais correspondant est “AI regulatory sandbox”) :
Il s’agit de faciliter le développement, la formation, les tests et la validation des AIS avant leur mise sur le marché ou leur mise en service, selon un plan à convenir entre les fournisseurs et l’autorité compétente (art. 57, al. 5) et, le cas échéant, avec l’aide des autorités de protection des données (al. 10).
L’article 59 contient ensuite une base juridique limitée pour le traitement de Données personnelles dans le cadre d’un laboratoire réel : les données personnelles peuvent être traitées pour le développement, l’entraînement et les tests dans un laboratoire réel, mais uniquement si certaines conditions sont remplies et uniquement dans le cas du développement d’un AIS pour la sauvegarde de certains intérêts publics. Cette base juridique vient s’ajouter à la base juridique analogue à des fins de test prévue à l’article 10 (→ 36).
Les fournisseurs peuvent ensuite obtenir une preuve des activités réalisées dans le laboratoire réel ainsi qu’un rapport final, ce qui permet d’améliorer le Procédure d’évaluation de la conformité ou faciliter la surveillance du marché (paragraphe 7). Le respect du plan offre en outre une sphère de sécurité contre les amendes en cas de violation de l’AIA liée au plan, mais aussi, le cas échéant, d’autres prescriptions, notamment du droit de la protection des données (al. 12).
Chaque État membre doit mettre en place au moins un laboratoire de ce type avant le 2 août 2026 (art. 57, al. 1). La Commission doit toutefois édicter auparavant des règles encore plus détaillées (art. 58 AIA).
Le deuxième élément est constitué par les tests de l’annexe III-HRAIS sous Conditions réelles:
Les HRAIS selon l’annexe III (c’est-à-dire les HRAIS liés au cas d’utilisation ; Q28) peuvent, sous certaines conditions, être réalisés en dehors d’un laboratoire réel d’IA dans des conditions réelles (art. 60). Il faut que le test soit contrôlable, c’est-à-dire qu’il soit surveillé efficacement et que les prévisions, recommandations ou décisions de l’AIS puissent être annulées ou ignorées (art. 60, al. 4, let. j‑k). Les incidents graves doivent être notifiés conformément à l’art. 73, c’est-à-dire que l’obligation de notification correspondante (→ 45) est avancée au moment précédant la mise sur le marché ou la mise en service (art. 60, al. 7).
Les tests doivent être basés sur un plan qui doit être approuvé par l’autorité de surveillance du marché compétente (art. 60, al. 4, let. a‑b).
Dans la mesure où le plan requiert la participation de participants à des tests, ceux-ci doivent en principe donner leur consentement à cette participation (art. 61, al. 4, let. j, et al. 5).
Le chapitre XII concerne les sanctions en cas de violation de l’AIA. Contrairement au RGPD, l’AIA lui-même ne contient pas d’éléments constitutifs d’amendes, mais oblige les États membres à introduire à l’art. 99 des dispositions relatives aux amendes, mais aussi d’autres mesures d’exécution. Les amendes peuvent être dirigées contre tous les acteurs, c’est-à-dire tous les services impliqués dans la création de valeur.
Selon le type d’infraction, les amendes peuvent atteindre 35 millions d’euros ou 7% du chiffre d’affaires :
En cas de violation de la pratiques interdites (→ 27), le montant supérieur de l’amende s’élève à 35 millions d’euros au maximum ou à 7% du chiffre d’affaires annuel mondial (art. 99, al. 3). Comme pour le RGPD, c’est le chiffre d’affaires du groupe qui devrait être déterminant.
Pour certains autres blessures le plafond des amendes est fixé à 15 millions d’euros ou à 3% du chiffre d’affaires annuel (art. 99, al. 4). Ces amendes peuvent être infligées à des acteurs, mais aussi à des organismes notifiés. Cela concerne les violations de l’art. 16 (fournisseurs), de l’art. 22 (agents), de l’art. 23 (importateurs), de l’art. 24 (distributeurs), de l’art. 26 (opérateurs) et des art. 31, 33, al. 1, 3 et 4 et 34 (organismes notifiés) ainsi que de l’art. 50 (transparence ; fournisseurs et opérateurs).
Dans le cas de réponses erronées à des organismes notifiés ou aux autorités nationales compétentes, le montant de l’amende est de 7,5 millions d’euros ou de 1% du chiffre d’affaires annuel (art. 99, al. 5).
C’est toujours le montant le plus élevé qui est déterminant, sauf pour les PME (ici le montant le plus bas ; art. 99 al. 6 ; → 47). Dans le cas concret, le tribunal ou l’autorité administrative (art. 99, al. 9) doit tenir compte des critères de l’art. 99, al. 7, entre autres de la gravité de la faute, pour fixer le montant de l’amende.
Sur Fournisseurs de GPAIM l’art. 101 contient une règle spéciale. Toutes les violations de l’AIA peuvent être sanctionnées par une amende (art. 101, al. 1, let. a) ; toutefois, l’art. 101, al. 1, mentionne spécifiquement certaines violations. Le montant de l’amende s’élève ici à 15 millions d’euros ou à 3% du chiffre d’affaires annuel.
Il faut bien sûr distinguer les blessures de la survenue d’un incident grave (→ 45).
L’AIA règle le rôle de plusieurs autorités principalement dans son propre chapitre “Gouvernance” (chapitre VII, art. 64 et suivants). Diverses autorités et institutions sont chargées de tâches différentes qui se recoupent en partie. Il existe une division horizontale du travail (au sein de l’UE) et une division verticale (entre l’UE et les États membres).
La première est régie par la section 1 du chapitre VII (Gouvernance). Le site Commission joue un rôle de premier plan au sein des organes de l’UE et c’est à elle qu’il incombe en principe de faire respecter l’AIA. Elle dispose de pouvoirs étendus, peut édicter des dispositions de concrétisation et est compétente pour recevoir les communications des acteurs et d’autres autorités (→ 51).
Le site AI Office (“Bureau de l’Intelligence Artificielle”) fait partie de la Commission et est responsable de la surveillance du marché de la GPAIM et des AIS basés sur la GPAIM du même fournisseur (art. 88 et 75 ; Q52).
Le European AI Board (EAIB) doit conseiller et assister la Commission (et les États membres) à cet égard (→ 53).
Les nationaux Autorités de surveillance du marché sont responsables du contrôle du respect de l’AIA (→ 54).
Le site autorités nationales notifiantes sont responsables de l’évaluation, de la désignation, de la notification et du contrôle des organismes d’évaluation de la conformité AI (art. 28).
Organismes d’évaluation de la conformité sont à leur tour des organismes chargés de vérifier et d’évaluer la conformité des AIS conformément à l’AIA (art. 3, ch. 21 → 15).
En raison des vastes obligations de coopération des parties prenantes et des vastes possibilités de collecte d’informations des autorités, la Commission, les autorités de surveillance du marché et les organismes notifiés, ainsi que tous les autres organismes participant à l’application de l’AIAI, seront soumis à une Obligation de confidentialité (art. 78).
Au niveau de l’UE, le rôle principal revient à la Commission et à l’AI Office, qui fait partie de la Commission (→ 52).
La Commission, qui veille au respect du droit de l’UE en vertu de l’article 17, paragraphe 1, du traité sur l’Union européenne, joue un rôle central à cet égard. Ses compétences peuvent être réparties comme suit (liste non exhaustive – certaines autres tâches subalternes de la Commission ne sont pas mentionnées) :
Légiférer en concrétisantL’art. 97 de l’AIA confère à la Commission, sur la base de l’art. 290 du traité UE (https://dtn.re/9MhpKX)) le droit d’adopter des “actes délégués” contraignants. Le traité UE fait la distinction entre les actes délégués et les actes d’exécution. Actes délégués sont des actes juridiques complétant ou modifiant l’acte de base (l’AIA), que la Commission soumet au Conseil et au Parlement pour approbation ou rejet. Actes d’exécution sont de simples dispositions de mise en œuvre telles que des dispositions techniques, des exceptions, etc. qui ne sont pas soumises au Parlement et au Conseil.
Le pouvoir, actes délégués se base sur l’art. 97 de l’AIA et doit permettre de refléter l’évolution technique particulièrement rapide dans le domaine de l’IA. Cela concerne en définitive les points suivants :
les critères permettant de déterminer quand un AIS devient un HRAIS (→ 28) et, par analogie, l’annexe III (cas d’utilisation ; art. 7, al. 1 et 3) ;
l’annexe IV relative au contenu minimal de la documentation technique (art. 11, paragraphe 3) ;
les annexes VI et VII et de l’article 43, paragraphes 1 et 2, concernant la procédure d’évaluation de la conformité et de l’annexe V concernant le contenu de la déclaration UE de conformité ;
les critères de classification d’une MGPA comme présentant un risque systémique, conformément à l’article 51, paragraphes 1 et 2, et à l’annexe XIII ;
les annexes XI et XII relatives au contenu de la documentation technique et aux exigences de transparence pour l’utilisation en aval de la GPAIM (article 53).
En outre, la Commission peut, dans les domaines suivants Actes d’exécution de la Commission. Pour ce faire, elle a généralement suivi le règlement relatif aux compétences d’exécution (https://dtn.re/B9uV04)) (art. 98, par. 2 :
Intervenir lorsqu’un État membre ne respecte pas les exigences en matière de organismes notifiés n’est pas remplie (art. 37, paragraphe 4) ;
Approbation de Guides pratiques en relation avec les GPAIM selon l’art. 56, de manière générale et notamment aussi pour concrétiser les exigences de transparence en cas de contenus générés ou manipulés par IA (art. 50 al. 7), les obligations des fournisseurs de GPAIM selon l’art. 53 et de GPAIM présentant un risque systémique selon l’art. 55 (art. 56 al. 6) ;
Décret Spécifications communes(2) L’AIA prévoit l’adoption d’un code de conduite en l’absence de normes pertinentes (article 41 de l’AIA) et de règles communes dans le domaine de la GPAIM en l’absence de code de conduite au plus tard le 2 août 2025 (article 56, paragraphe 9).
Règles de concrétisation pour Laboratoires réels d’IA (art. 58, paragraphes 1 et 2) et des tests de HRAIS en conditions réelles (art. 60) ;
Dispositions relatives à la mise en place d’un groupe scientifique d’experts indépendants (art. 68, paragraphes 1 et 5, et art. 69, paragraphe 2) ;
Concrétisations pour le Plan d’observation du marché des fournisseurs de HRAIS (article 72, paragraphe 3) ;
Concrétisations du Procédure de sanction (art. 101, paragraphe 6).
La Commission peut ensuite, par le biais du Adoption de lignes directrices et normalisation contribuer à l’uniformisation des pratiques:
La Commission doit tenir les rênes de l’application de l’AIA en général. Elle donne, par exemple, les instructions suivantes Mandats de normalisation selon l’art. 10 de l’ordonnance sur les normes, (https://dtn.re/BRL10Q), c’est-à-dire des mandats pour l’élaboration des normes dont le respect confère une présomption de conformité (article 40, paragraphes 1 et 2), et peut – en l’absence de normes pertinentes – adopter des “spécifications communes” correspondantes (article 41 de l’AIA).
Selon l’art. 96 de l’AIA, elle peut en outre, de manière générale Lignes directrices pour la mise en œuvre pratique de l’AIA. L’art. 96 contient certes une liste de points à concrétiser – en particulier la définition de l’AIS, l’application des art. 8 ss. avec les exigences de base, la classification comme HRAIS (art. 6 al. 5), les pratiques interdites et la transparence selon l’art. 50 AIA – mais elle n’est pas exhaustive.
La Commission approuvé en outre Guides pratiques selon l’art. 56 de l’AIA, c’est-à-dire une concrétisation des obligations des fournisseurs de GPAIM.
Elle présente également Modèles et formulaires qui sont susceptibles d’avoir une importance considérable dans la pratique. Elle doit mettre à disposition un formulaire simplifié pour la documentation technique dans les HRAIS des PME (art. 11 ; annexe IV).
La Commission poursuit Messages et Rapports de l’Union européenne :
l’identification biométrique à distance et en temps réel à des fins répressives : Communication par les États membres des bases juridiques correspondantes (article 5, paragraphe 5) et rapports annuels des autorités nationales de surveillance du marché et de protection des données (article 5, paragraphe 6) ;
évaluation de la conformité : communication des autorités notifiantes concernant les organismes d’évaluation de la conformité (art. 30, par. 2 s. et art. 36, par. 1, 4 et 7) ; communication des autorités de surveillance du marché concernant les dérogations accordées aux HRAIS conformément à l’art. 46, par. 1 (art. 46, par. 3 ; la Commission pouvant intervenir) ;
GPAIM : déclaration des fournisseurs de GPAIM présentant un risque systémique (art. 52, paragraphe 1) ;
Communication des autorités de notification et des autorités de surveillance du marché par les États membres (art. 70, paragraphes 2 et 6) ;
Communication aux autorités nationales des incidents graves (art. 73, al. 11) conformément à l’ordonnance sur la surveillance du marché ; (https://dtn.re/ubfeIK);
communication annuelle par les autorités de surveillance du marché des informations issues de la surveillance du marché et de l’utilisation de pratiques interdites (art. 74, paragraphe 2) ;
Communication par les États membres des autorités nationales ou des organismes publics chargés de la surveillance de la protection des droits fondamentaux (article 77, paragraphes 1 et 2) ;
Informations fournies par les États membres en rapport avec les AIS à risque au sens de l’article 79, paragraphe 1(art. 79, paragraphe 3 et suivants) ;
les informations fournies par les États membres en rapport avec les AIS à risque que le fournisseur n’a pas classés à haut risque (article 80, paragraphe 3) et avec les AIS conformes qui présentent néanmoins un risque particulier (article 82, paragraphes 1 et 3) ;
Communications des États membres sur leurs dispositions en matière de sanctions et autres mesures d’exécution et sur leur pratique en matière d’amendes (article 99, paragraphes 2 et 11) ; communication du CEPD sur sa pratique en matière d’amendes (article 100, paragraphe 7).
La Commission a continué Pouvoirs d’intervention et de décision:
Sanctionner les fournisseurs de GPAIM (article 101, paragraphe 1) ;
Opposition aux dérogations accordées à HRAIS en vertu de l’article 46, paragraphe 1 (art. 46, paragraphes 4 et 5) ;
Classification d’une GPAIM comme présentant un risque systémique (art. 52, paragraphes 2 à 5) ;
Évaluation des procédures que les fournisseurs d’AMPIM ou d’AMPIM présentant un risque systémique peuvent utiliser pour apporter la preuve de leurs obligations respectives au titre des articles 53 et 55 (en l’absence de normes harmonisées ; article 53, paragraphe 4, et article 55, paragraphe 2) ;
Intervenir lorsqu’un AIS présentant des risques particuliers au sens de l’art. 79, al. 1, n’est pas conforme ou lorsqu’un HRAIS conforme présente néanmoins des risques particuliers et que la commission n’est pas d’accord avec les mesures prises par l’autorité de surveillance du marché compétente (art. 81 et 82).
Enfin, la commission informe par Publications et annonces:
Liste des organismes notifiants (art. 35, paragraphe 2) ;
Liste des GPAIM présentant un risque systémique (art. 52, paragraphe 6) ;
Liste des guichets uniques des États membres (art. 70, paragraphe 2) ;
Base de données de l’HRAIS conformément à l’annexe III (art. 71) ;
faire rapport au Parlement et au Conseil (art. 112).
Et enfin, la Commission a Pouvoirs d’exécution au GPAIM:
GPAIM font l’objet d’une réglementation spécifique au chapitre V. La Commission est chargée de faire appliquer les dispositions du présent chapitre, comme le prévoit la section 5 du chapitre IX (surveillance après la mise sur le marché ; échange d’informations et surveillance du marché). Elle doit être tenue informée par les autorités de surveillance du marché (art. 73, al. 11, art. 74, al. 2, art. 77, al. 2, art. 79, al. 3 et suivants, art. 80, al. 3).
La Commission peut intervenir si elle n’est pas d’accord avec les mesures prises par les États membres, si l’AIS ou l’HRAIS présentent des risques particuliers (art. 81 et art. 82, al. 4 s.).
Elle a également la compétence générale de faire appliquer le chapitre V (art. 88.1). A cette fin, elle peut demander des informations aux fournisseurs d’AMPI (art. 91, par. 1 et 3, et art. 92, par. 3), désigner des experts pour évaluer les AMPI (art. 92, par. 2) et exiger des fournisseurs d’AMPI qu’ils respectent leurs obligations, prennent des mesures de réduction des risques et retirent une AMPI du marché (art. 93, par. 1).
Le AI Office (https://dtn.re/cvmxvL)), mais avec une dénomination légèrement différente, à savoir “Office européen de l’intelligence artificielle“Les deux sont l’AI Office (l’anglais AI s’impose). Il fait partie de la DG (Direction générale des réseaux de communication, du contenu et des technologies) de la Commission. Il compte plus de 140 employés et est divisé en cinq départements : “Excellence in AI and Robotics Unit”, “Regulation and Compliance Unit”, “AI Safety Unit”, “AI Innovation and Policy Coordination Unit” et “AI for Societal Good Unit”.
Les tâches de l’Office découlent de l’article 3, point 47, de l’article 64, d’autres dispositions de l’AIA et de la décision susmentionnée, qui énumère ces tâches ainsi que d’autres et les compétences de l’Office. Il s’agit principalement des suivantes :
tâches de coordination (par exemple, la coopération avec les parties prenantes, les autres services de la Commission, les autres organes de l’UE et les États membres et leurs autorités) ;
Articles spécialisés (par exemple, le suivi des évolutions économiques et techniques, l’élaboration de guides et de conditions types [art. 25, 27, paragraphe 5, 50, paragraphe 7, 53, paragraphe 1, point d), 56 et 62, paragraphe 2] et la préparation des décisions de la Commission (art. 56) ;
le Surveillance du marché sur les GPAIM et sur les AIS qu’un fournisseur construit sur la base de son propre GPAIM (art. 88 et art. 75 et art. 3 de la décision de la Commission précitée). Il vérifie ici le respect de l’AIA par les acteurs concernés et sert également de point de contact pour la notification d’incidents graves (→ 45).
En outre, l’Office supervise également l’AI Pact (https://dtn.re/WJfwxl).
Le “panel européen sur l’intelligence artificielle” (“panel IA” ; également “EAIB”, pour “European AI Board”, https://dtn.re/QQhGJ7).
Il doit conseiller et assister la Commission et les Etats membres afin de faciliter l’application uniforme et efficace de l’AIA (l’article 66 contient une liste de ses tâches ; d’autres tâches sont définies dans l’AIA). Pour ce faire, il assiste l’AI Office, entre autres, dans l’élaboration de guides pratiques. En ce qui concerne l’application du RGPD, le CEPD et la Commission défendent souvent des positions contradictoires ; reste à savoir s’il en sera de même pour l’AIA.
Un Forum consultatif fournit une expertise technique à l’EAIB et à la Commission. Le forum consultatif est composé de représentants de l’industrie, des start-ups, des PME, de la société civile et de la communauté scientifique, ainsi que d’organismes européens (par exemple, le Comité européen de normalisation CEN ou l’ENISA) (art. 67).
En outre, la Commission doit créer un groupe scientifique d’experts indépendants (comité scientifique(Scientific panel of independent experts). Il est composé d’experts indépendants et doit soutenir l’AI Office dans ses activités de surveillance du marché en lui fournissant des connaissances scientifiques et techniques (art. 68).
Le site Autorités de surveillance du marché (art. 3, n° 26 et 48) sont responsables de la surveillance du marché pour HRAIS et GPAIM (art. 74 et suivants). Chaque État membre doit désigner au moins une telle autorité (art. 70, paragraphe 1). Pour les produits réglementés (art. 6, paragraphe 1), ce sont généralement les autorités compétentes dans ce domaine qui sont également l’autorité de surveillance du marché selon l’AIA (art. 74, paragraphe 3), dans le domaine financier, l’autorité de surveillance des marchés financiers (art. 74, paragraphe 6), et pour les organismes publics de l’UE, le CEPD (art. 74, paragraphe 9). Les AIS basés sur une GPAIM développée en interne (par exemple ChatGPT) constituent un cas particulier ; dans ce cas, la surveillance du marché incombe à l’AI Office (→ 52).
Le site Pouvoirs et tâches sont notamment régies par l’ordonnance relative à la surveillance du marché (art. 3 n° 26 ; art. 14 et suivants de cette ordonnance) ; https://dtn.re/QCMYaE) et aux exigences de l’article 70, paragraphe 1. Par exemple, ils peuvent
en cas de incident grave ordonner, pour un HRAIS, qu’il soit rappelé ou retiré du marché ou que sa mise à disposition sur le marché soit suspendue (art. 19 de l’ordonnance relative à la surveillance du marché) ;
pour leur activité, demander à tout moment des informations aux fournisseurs (art. 74, al. 12 et 13, et 75, al. 3), les Obligations de coopération avoir, et ils peuvent
éventuellement, vous pouvez obtenir un Test de HRAIS ordonner (art. 77, al. 3).
Si un AIS devait avoir un particulier Risque pour la santé et la sécurité des personnes, la santé et la sécurité au travail, la protection des consommateurs, l’environnement, la sécurité publique et d’autres intérêts publics (art. 79, al. 1, en relation avec l’art. 3, n° 19, de l’ordonnance relative à la surveillance du marché), l’autorité de surveillance du marché compétente peut vérifier la conformité de l’AIS concerné et, le cas échéant, ordonner des mesures correctives et un rappel (art. 79, al. 5).
Dans le cas de l’AIS, que le fournisseur pas à haut risque l’autorité de surveillance du marché peut, si elle n’est pas d’accord, ordonner la mise en conformité (art. 80, al. 1 et 2). Elle peut également, dans le cas de produits certes conformes, mais néanmoins particulièrement risqué HRAIS ordonner des mesures correctives (art. 82, al. 1). Elle peut également prendre des mesures en cas d’erreurs formelles, par exemple lorsqu’un marquage CE fait défaut (art. 83).
En vertu de l’AIA, les autorités de surveillance du marché sont en outre chargées notamment des tâches suivantes :
Information de la Commission concernant certaines dispositions législatives relatives à l’identification biométrique à distance et en temps réel dans le cadre de l’application du droit (article 5, paragraphes 4 et 6) ;
Réception d’informations et des messages, notamment les suivants :
le fournisseur et l’exploitant d’un HRAIS sur les risques particuliers (art. 79, paragraphe 2, et art. 26, paragraphe 5) ; l’exploitant d’un HRAIS sur les incidents graves (art. 26, paragraphe 5) ;
Copie du mandat de commande et de sa résiliation par des représentants de prestataires HRAIS non européens (art. 22, al. 3 et 4) ;
Information sur les HRAIS non conformes des importateurs (art. 23, paragraphe 2) ;
les analyses d’impact sur les droits fondamentaux (FRIA) des organismes publics (article 27, paragraphe 3) ;
Informations sur les tests de HRAIS en conditions réelles (art. 60) ;
notifications d’incidents graves à HRAIS (article 73, paragraphe 1) ;
Information d’autres organismes:
des autorités nationales et des organismes publics conformément à l’article 77, lorsqu’un incident grave concernant un HRAIS lui a été signalé (article 73, paragraphe 7) ;
de la commission en cas de mesures à prendre en cas d’incidents graves (art. 19, al. 1, de l’ordonnance relative à la surveillance du marché) ;
rapport annuel à l’attention de la Commission (art. 74, paragraphe 2) ;
autorisation exceptionnelle d’un HRAIS conformément à l’art. 46 ;
Approbation et révision de la Tests de HRAIS en conditions réelles (art. 60, al. 4, let. b, art. 76) ; le cas échéant, intervenir également si un incident grave se produit ou si un test ne se déroule pas conformément aux conditions applicables (art. 76, al. 3 et 5) ;
Réception de Plaintes des personnes physiques ou morales (art. 85).
Les organismes d’évaluation de la conformité effectuent Évaluation de la conformité (art. 3, point 21). Ils sont institués par les autorités notifiantes (art. 28, par. 1, 29, par. 1, et 30, par. 1 → 57) et doivent satisfaire aux exigences de l’art. 30. Ils doivent notamment être indépendants. Les organismes d’évaluation de la conformité dans des pays tiers peuvent également agir selon l’AIA, pour autant qu’il existe un accord correspondant avec l’UE (art. 39). Un organisme de conformité s’appelle “organisme notifié”, si elle a été notifiée conformément aux dispositions pertinentes (article 3, point 22). Concernant la procédure d’évaluation de la conformité → 15.
Chaque État membre doit désigner une autorité notifiante (art. 28, paragraphe 1, et 70, paragraphe 1). Elle est chargée d’établir les procédures d’évaluation, de désignation et de notification des de mettre en place des organismes d’évaluation de la conformité et de les mettre en œuvre et de les contrôler (art. 3, point 19). “Autorités de notification” : elles sont appelées ainsi parce qu’elles doivent informer la Commission (→ 51) et les autres États membres de chaque organisme d’évaluation de la conformité par le biais d’un instrument de notification géré par la Commission ; ce n’est qu’ainsi que les organismes d’évaluation de la conformité deviennent des organismes notifiés et peuvent commencer leurs activités (→ 56).
La protection des données revêt une importance considérable pour l’AIS, en particulier dans le cadre de la formation de GPAIM. C’est pourquoi l’AIA renvoie souvent au RGPD, en particulier pour les termes qui y sont définis légalement (art. 3, n° 37, 50, 51 et 52) ou de manière déclarative aux prescriptions du RGPD (par exemple à l’art. 26, al. 9 pour l’utilisation des instructions d’exploitation lors d’une analyse d’impact relative à la protection des données ou à l’art. 50, al. 3 pour l’information des personnes concernées), mais précise que le RGPD s’applique sans restriction au traitement des données personnelles (art. 2, al. 7, 10, al. 5).
L’art. 10, al. 5, contient la seule disposition spéciale concernant l’obligation d’informer. Base juridique dans l’AIA. Il existe un conflit d’objectifs entre l’économie de données et la pertinence des données d’entraînement. L’AIA le résout de telle sorte que même les données personnelles sensibles peuvent exceptionnellement être traitées si cela est absolument nécessaire lors de l’entraînement d’un HRAIS afin d’identifier et de réduire les biais (plus précisément : l’interdiction de l’article 9, paragraphe 1 du RGPD est levée à cet égard ; une base juridique selon l’article 6 reste nécessaire ; CJCE, affaire C‑667/21, https://dtn.re/ATzHFf). Les conditions particulières prévues à l’article 10, paragraphe 5, lettres a à f, doivent cependant être respectées.
Plus importante que cette question est la discussion sur le champ d’application de la loi sur la protection des données à une formation de LLM et plus large, quand dans le cadre d’un LLM Données personnelles quelle partie joue quel rôle et comment les droits des personnes concernées peuvent être garantis. Un débat est en cours à ce sujet. Il convient notamment de se référer aux documents et prises de position suivants (par ordre chronologique décroissant) :
David Rosenthal, article de blog, 17 juillet 2024 (https://dtn.re/0SBhz2)
David Vasella, datenrecht.ch, 16 juillet 2024 (https://dtn.re/BuTaCE)
Hambourg: Document de discussion “Large Language Models and Personal Data” du HmbBfDI, 15 juillet 2024 (https://dtn.re/BuTaCE)
La position défendue notamment par le HmbBfDI, selon laquelle un LLM ne peut pas contenir de données personnelles parce qu’il ne copie pas les données d’entrée, mais représente mathématiquement les relations entre les tokens sous forme de vecteurs ou de tenseurs, est trop courte, car l’état d’agrégation d’une donnée personnelle n’est pas pertinent : si des informations personnelles ne sont pas enregistrées en tant que telles, mais sous forme de relations mathématiques en principe reproductibles, il s’agit alors d’un traitement de données personnelles (cf. datenrecht.ch, https://dtn.re/BuTaCE). La question de savoir comment les droits des personnes concernées peuvent être mis en œuvre dans le cadre des LLM, par exemple, n’est donc pas sans objet.
Les autorités de protection des données se sont également prononcées, en dehors de la question de la référence aux personnes des embeddings (→ 12), sur le Relation entre la protection des données et l’intelligence artificielle ont été exprimés, par exemple :
EDSA, Statement 3/2024 on data protection authorities’ role in the Artificial Intelligence Act framework, 16 juillet 2024 (https://dtn.re/vGUUWh)
DSK, Orientation sur l’intelligence artificielle et la protection des données, 6 mai 2024 (https://dtn.re/S63kDn)
BayLDA, dans le 29e rapport d’activité 2019 (https://dtn.re/rg7FEr)
ICO, diverses informations sur des thèmes IA (https://dtn.re/g91v0E)
AutricheFAQ sur l’IA et la protection des données de la CPD autrichienne, 2 juillet 2024 (https://dtn.re/Sz4sDS)
France: CNIL, Guide d’auto-évaluation des systèmes d’intelligence artificielle (IA) (https://dtn.re/44hM5n)
Italie: Garante, Indications sur la protection des données personnelles contre le scraping, 20 mars 2024 (https://dtn.re/TuzT85)
Suissevoir → 63
Plusieurs autorités européennes de contrôle de la protection des données (“SAs”) avaient également Enquêtes contre OpenAI en ce qui concerne ChatGPT. L’EDSA a créé une task force à cet effet en avril 2023, dont les travaux sont toujours en cours ; un rapport intermédiaire succinct a été publié le 23 mai 2024 (https://dtn.re/HyvPHo).
Dans le domaine du droit d’auteur, l’AIA reconnaît le problème de l’entraînement avec des œuvres protégées. Elle ne se prononce pas sur le fond de cette problématique, mais exige des fournisseurs de GPAIM entre autres, de disposer d’une stratégie de conformité avec le droit d’auteur de l’UE et de publier un résumé des données de formation (→ 39).
Pour le reste, l’attribution des droits exclusifs et la détermination de leur étendue et des limites correspondantes sont laissées aux dispositions pertinentes. Dans ce contexte, la discussion porte principalement sur les conditions dans lesquelles l’utilisation d’œuvres protégées par le droit d’auteur peut être autorisée pour l’exploitation de la marque. Formation d’un LLM Une discussion compréhensible, étant donné que les LLM sont en concurrence avec les créateurs avec les œuvres desquels ils ont été formés.
Le principe est le suivant Principe de territorialitéLa question de savoir si un acte est une violation du droit d’auteur est déterminée par le droit de l’Etat dans lequel il doit être situé (pour le droit suisse des conflits de lois : art. 110 IRPG). Dans l’UE, ce sont les droits d’auteur des différents États membres. Voir toutefois → 40 sur la question de savoir si l’exigence imposée aux fournisseurs de GPAIM en dehors de l’UE doit respecter les prescriptions de l’AIA en matière de stratégie de droit d’auteur.
En Suisse, les dispositions pertinentes se trouvent dans la LDA. La portée des dispositions relatives aux restrictions est notamment ouverte, une distinction devant être faite entre l’acquisition de matériel protégé par le droit d’auteur et son utilisation pour une formation :
L’acquisition et une procédure qui l’accompagne en général Reproduction de matériel est pertinente du point de vue du droit d’auteur (tant que l’on ne veut pas limiter la notion de reproduction aux actes qui ont pour but de rendre l’œuvre perceptible), contrairement à la jouissance de l’œuvre, comme par exemple la recherche de texte ou l’étiquetage pour un Supervised Learning (→ 10). En l’absence d’une Licence – qui peut être accordée expressément ou tacitement -, la question se pose donc de savoir si la limite de l’usage privé selon l’art. 19 al. 1 LDA s’applique. A cet égard, il existe actuellement Insécurité juridique:
On discute entre autres de la question de savoir si une formation relève de la reproduction et de la mise à disposition pour la “information ou documentation interne”(art. 19, paragraphe 1, lettre c LDA). Etant donné qu’une telle reproduction n’est essentiellement exemptée qu’à des fins non commerciales et ne devrait donc généralement pas couvrir l’entraînement d’un LLM et que la reproduction d’exemplaires d’œuvres disponibles dans le commerce n’est pas couverte (art. 19 al. 3 let. a LDA), cette limite ne s’appliquera souvent pas.
La discussion porte également sur ce qu’on appelle “Exploitation de textes et de données”(TDM), qui exempte la reproduction à des fins scientifiques si elle est techniquement nécessaire, par exemple par l’analyse sémantique du matériel source (art. 24d LDA). La notion de science est certes large, mais la recherche appliquée des entreprises privées exige également un objectif de connaissance sérieux. Il n’est pas certain que le fait qu’un LLM entraîné puisse être utilisé à différentes fins suffise à attribuer à l’entraînement le but cognitif requis ; en tout cas, il ne suffit pas qu’un LLM entraîné puisse éventuellement être utilisé à des fins de recherche, le but de la recherche devrait englober l’entraînement.
En outre, l’acquisition des œuvres utilisées doit être licite (art. 24d LDA), ce qui ne peut pas être affirmé (ou nié) de manière générale, entre autres pour les œuvres disponibles publiquement.
L’output, quant à lui, n’est guère protégé par le droit d’auteur, car il s’agit d’une création intellectuelle, c’est-à-dire d’une œuvre d’art. création humaine (art. 2 al. 1 LDA) ; ceci en tout cas dans la mesure où il n’est pas prouvé que l’output a été donné par une personne physique. Pour la même raison, une IA ne peut pas être un inventeur au sens du droit des brevets – ici aussi, la protection présuppose que l’inventeur soit une personne.
L’AIA contient quelques dispositions spécifiques à l’utilisation des AIS dans le contexte professionnel :
L’utilisation d’un AIS est interdite par l’article 5 dans quelques cas (→ 27). Cela peut être le cas dans le domaine du travail, par exemple en cas de reconnaissance des émotions sur le lieu de travail, si la vulnérabilité des collaborateurs doit être exploitée ou si un scoring social est effectué ;
Le terme HRAIS englobe les cas d’utilisation liés au travail (→ 28), par exemple lorsque les SIA sont utilisés pour gérer l’accès à l’enseignement et à la formation professionnels, pour le recrutement ou la sélection des candidatures. Les SIS sont utilisés dans le cadre de l’évaluation des candidatures à un emploi ou de la prise de décisions concernant les conditions de travail, les promotions ou les licenciements.
Avant la mise en service ou l’utilisation d’un HRAIS sur le lieu de travail, l’exploitant doit informer les représentants du personnel et les travailleurs concernés qu’ils seront “soumis à l’utilisation du système d’IA à haut risque” (art. 26, al. 7, AIA).
Il convient également de fournir des informations lorsqu’un HRAIS est utilisé – notamment, mais pas uniquement, dans le contexte professionnel – pour prendre des décisions ou aider à prendre des décisions (art. 26, al. 11, AIA).
Mais pour le reste, la protection des travailleurs et des candidats est laissée aux autres dispositions du droit applicable, notamment le droit de la protection des données et le droit public du travail, qui peut prévoir des droits de participation.
Des projets législatifs sont toutefois en cours dans l’UE, qui visent à améliorer la protection des travailleurs. Le projet de directive de l’UE sur les plateformes (https://dtn.re/G3ytlM), en attendant l’approbation du Conseil.
Plusieurs normes et initiatives de normalisation traitent de l’IA. L’International Organization for Standardization (ISO) et la Commission électrotechnique internationale (IEC) ont développé ensemble des normes :
ISO/IEC 42001:2023 (https://dtn.re/L8KOIs) : Exigences relatives aux systèmes de gestion de l’IA
ISO/IEC TR 24028:2020 (https://dtn.re/YYy0Ha) : Fiabilité des systèmes d’IA, critères de transparence, de contrôle et d’explicabilité
ISO/IEC 5259 – 1 : base de la série ISO 5259 concernant la qualité des données pour les analyses et les ML (https://dtn.re/TggI5G)
ISO/IEC TR 5469:2024 : Utilisation de l’IA dans les fonctions liées à la sécurité (https://dtn.re/vbc8IL)
En Europe, le CEN (Comité européen de normalisation) et le CENELEC (Comité européen de normalisation électrotechnique) participent à l’élaboration de normes IA par le biais du comité mixte CEN-CENELEC JTC 21 “Intelligence artificielle. Il a publié plusieurs normes et d’autres sont en cours d’élaboration (https://dtn.re/Gx0XMT). Ont été publiés par exemple
CEN/CLC ISO/IEC/TR 24027:2023 : Biais
CEN/CLC ISO/IEC/TR 24029 – 1:2023 : Évaluation de la robustesse des réseaux neuronaux
Le National Institute of Standards and Technology américain (NIST) a ensuite développé un cadre de gestion des risques AI, l’AI RMF 1.0, publié en janvier 2023, qui a ensuite été complété par des “profils”, des mises en œuvre pour des circonstances, des applications ou des technologies spécifiques. Un exemple est le NIST AI 600 – 1 “Artificial Intelligence Risk Management Framework : Generative Artificial Intelligence Profile” (https://dtn.re/z3H7BJ).
Le 17 mai 2024, le Conseil de l’Europe (et non le Conseil de l’Union européenne) a adopté la Convention IA du Conseil de l’Europe (Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, AI Convention). Le texte de la Convention AI, ainsi que le rapport explicatif, sont disponibles sur droitdonnées.ch (https://dtn.re/8zndsz), en anglais.
La convention est un accord-cadre à mettre en œuvre par les États qui la ratifient – dont la Suisse fera certainement partie – et qui doit garantir des normes en matière de droits de l’homme, de démocratie et d’État de droit lors de l’utilisation de systèmes d’IA.
Les membres et non-membres du Conseil de l’Europe sont maintenant invités à signer et à ratifier la Convention-cadre. Si la Suisse ratifie la Convention, elle devra la transposer dans le droit suisse (→ 63).
Les dispositions de la convention AI sont très vagues. De plus, elle ne lie les États membres que lorsqu’ils légifèrent dans le secteur public. Dans le secteur privé, les États membres ne sont tenus de légiférer que d’une manière “compatible avec l’objet et le but” de la Convention AI (article 3, paragraphe 1, de la Convention AI).
En Suisse, il n’existe jusqu’à présent aucune réglementation générale sur l’utilisation de l’intelligence artificielle. Fin 2023, le Conseil fédéral a chargé le DETEC, dans le cadre du groupe de coordination interdépartemental Politique numérique de l’UE jusqu’à fin 2024 approches possibles pour une réglementation (voir le communiqué de presse, https://dtn.re/uV1Eau). Le DETEC, ou l’OFCOM sur mandat de ce dernier, doit partir du droit en vigueur et trouver des approches de réglementation compatibles tant avec l’AIA qu’avec la Convention AI (→ 62).
L’état des lieux de l’OFCOM, y compris les études de base réalisées à cet effet, par exemple sur les lacunes réglementaires du droit en vigueur, ainsi que la décision d’orientation du Conseil fédéral devraient être disponibles d’ici fin 2024.
Les approches proposées par le DETEC et celles qui s’imposeront finalement restent toutefois ouvertes à l’heure actuelle. Une Reprise intégrale de l’AIA devrait avoir peu de chances sur le plan politique tant que l’UE n’en fera pas une condition de sa participation au marché intérieur, et la Convention AI est si vague que son contenu ne préfigure guère une réglementation, surtout dans le domaine privé (→ 62). L’économie (mais aussi Academia) insiste sur des réglementations allégées, tandis que les organisations de la société civile demandent des dispositions plus strictes, notamment pour la protection contre la discrimination (par exemple Algorithm Watch). L’option la plus évidente à l’heure actuelle semble être un acte législatif global qui adapte ponctuellement les bases juridiques pertinentes.
En outre, diverses interventions politiques sont en cours, par exemple les suivantes (au niveau fédéral) :
24.3796, Motion Glättli14 juin 2024, Évaluation transparente des conséquences de l’utilisation de l’IA et des algorithmes par la Confédération, basée sur les risques (https://dtn.re/vWwoDP)
24.3795, Motion Glättli14 juin 2024, Protection contre la discrimination dans l’utilisation de l’IA et des algorithmes (https://dtn.re/B46Qtc)
24.3611, Interpellation Cottier13 juin 2024, Intelligence artificielle. Coordination dans l’administration et intentions concernant la nouvelle convention-cadre du Conseil de l’Europe (https://dtn.re/hdDPxQ)
24.3616, Interpellation Gössi13 juin 2024, Médias et intelligence artificielle (https://dtn.re/JaEh4n)
24.3415, Interpellation Tschopp, 17 avril 2024, Plateformes et IA : les droits des utilisateurs (https://dtn.re/HBZFOE)
24.3363, Motion Chappuis15 mars 2024, Pour une infrastructure numérique souveraine en Suisse à l’ère de l’intelligence artificielle (https://dtn.re/s4SsC9)
24.3346, Interpellation Docourt15 mars 2024, directive européenne sur les plateformes de travail. La Suisse veut-elle s’en inspirer ? (https://dtn.re/UNvBOq)
24.3235, Interpellation Marti, 14 mars 2024, L’intelligence artificielle et son impact sur le droit d’auteur (https://dtn.re/jpX0Cg)
24.3209, Motion Juillard, 14 mars 2024, Pour une infrastructure numérique souveraine en Suisse à l’ère de l’intelligence artificielle (IA) (https://dtn.re/NsqdKN)
23.4517, Interpellation Gugger22 décembre 2023, Intelligence artificielle et participation. Y a‑t-il des lacunes dans la loi ? (https://dtn.re/hl1Q54)
23.4492, Motion Gysi22 décembre 2023, L’intelligence artificielle au travail. Renforcer les droits de participation des travailleurs (https://dtn.re/PH8ab1)
23.4051, Interpellation Schlatter, 29 septembre 2023, Intelligence artificielle et robotique. L’éthique doit faire partie de la formation ! (https://dtn.re/PMNgtC)
23.393, Interpellation Cottier, 16 juin 2023, Intelligence artificielle. Quel cadre faut-il mettre en place pour en tirer le meilleur parti et éviter les dérives ? (https://dtn.re/FXxB9v)
23.3812, Interpellation Widmer15 juin 2023, L’intelligence artificielle. Dangers et potentiel pour la démocratie (https://dtn.re/ZkaTUc)
23.4133, Interpellation Marti, 28 septembre 2023, La discrimination algorithmique. La protection légale contre la discrimination est-elle suffisante ? (https://dtn.re/xr97Zq)
23.3849, Motion Bendahan15 juin 2023, Créer un centre ou un réseau de compétences en intelligence artificielle en Suisse (https://dtn.re/sqLWYa)
23.3654, Interpellation Riniker13 juin 2023, Rôle de la Suisse dans la coopération internationale en matière d’intelligence artificielle (https://dtn.re/sUoUb3)
23.3806, Motion Marti15 juin 2023, déclaration obligatoire pour les applications d’intelligence artificielle et les systèmes décisionnels automatisés (https://dtn.re/D3FmNo)
23.3563, Motion Mahaim4 mai 2023, Réguler les fakes profonds (https://dtn.re/kwNWvh)
23.3516, interpellation Feller2 mai 2023, interdiction de principe ou provisoire de certaines plateformes d’intelligence artificielle (https://dtn.re/Ig8JPJ)
23.3201, Postulat Dobler, 16 mars 2023, Situation juridique de l’intelligence artificielle. Clarifier les incertitudes, encourager l’innovation ! (https://dtn.re/e7sGlM)
23.3147, Interpellation Bendahan, 14 mars 2023, Régulation de l’intelligence artificielle en Suisse (https://dtn.re/xMVLIE)
21.4406, Postulat Marti9 décembre 2021, rapport sur la réglementation des systèmes décisionnels automatisés (https://dtn.re/PQbXqs)
21.3206, Interpellation Pointet, 17 mars 2021, Quels sont les processus de l’État qui s’appuient sur l’intelligence artificielle ? (https://dtn.re/WUw9Hr)
21.3012, Postulat Commission de la politique de sécurité, 15 janvier 2021, Des règles claires pour les armes autonomes et l’intelligence artificielle (https://dtn.re/duRhvk)
19.3919, Interpellation Riklin, 21 juin 2019, Intelligence artificielle et transformation numérique. Nous avons besoin d’une stratégie holistique (https://dtn.re/5x93tL)
Il va de soi que les dispositions normalement applicables s’appliquent également à l’utilisation de l’IA. Cela concerne par exemple
le Droit de la protection des données (si des données personnelles sont traitées lors de l’entraînement ou de l’intervention),
le Droit de la protection du secret (lorsque des informations secrètes sont utilisées pour une formation ou comme input),
le Droit du contrat de travail (lorsque des données personnelles de candidats et de collaborateurs sont traitées et lorsqu’une IA touche au devoir d’assistance de l’employeur),
le droit du travail public (p. ex. lorsque des obligations de coopération interviennent ou qu’une surveillance du comportement est en discussion),
le Droit de la personnalité (par exemple, lorsque des conversations ou des appels d’équipe sont enregistrés),
le Droit de la concurrence déloyale (lorsque le contenu généré par l’IA peut être trompeur),
le Droit d’auteur (par exemple lorsqu’une IA s’entraîne avec des œuvres ou que des œuvres sont utilisées comme input, et lorsque la protection de l’output est en discussion),
le Droit pénal (lors de l’enregistrement de conversations non publiques ou, de manière générale, lors de l’utilisation de l’IA en cas de comportement répréhensible),
autres domaines juridiques.
Les réglementations sectorielles peuvent également être concernées. Peu d’autorités de surveillance ont déjà formulé des attentes, notamment la FINMA (https://dtn.re/bOT1Ez).
Entre-temps, les acteurs privés se sont également dotés de règles. Cela concerne surtout des acteurs particulièrement exposés comme
médias (les lignes directrices de la SSR en matière de journalisme (https://dtn.re/f1UTYZ),
les partis politiques (par ex. avec le code d’éthique des Verts, des Verts libéraux, du PS, du Centre et du PEV, https://dtn.re/1te4U8) ou
la recherche et la formation (par ex. avec les recommandations sur l’utilisation de l’intelligence artificielle générative à l’UZH, https://dtn.re/aBstLV).
De nombreuses entreprises privées ont également adopté, ou sont en train d’adopter, des directives, des codes et des instructions, parfois publics, parfois non publics.
| Anglais | Allemand | |
| 1 | Système AI | Système d’IA |
| 2 | Risque | Risque |
| 3 | Fournisseur | Fournisseur |
| 4 | Déployeur | Opérateur |
| 5 | Représentant autorisé | Représentant autorisé |
| 6 | Importer | Importateur |
| 7 | Distributeur | Revendeurs |
| 8 | Opérateur | Acteur |
| 9 | Placer sur le marché | Mise sur le marché |
| 10 | Mise à disposition sur le marché | Mise à disposition sur le marché |
| 11 | Mise en service | Mise en service |
| 12 | Objectif visé | Destination |
| 13 | Utilisation abusive raisonnablement prévisible | Mauvaise utilisation raisonnablement prévisible |
| 14 | Composant de sécurité | Composant de sécurité |
| 15 | Instructions d’utilisation | Manuels d’utilisation |
| 16 | Recall d’un système AI | Rappel d’un système d’IA |
| 17 | Déploiement d’un système d’intelligence artificielle | Retrait d’un système d’IA |
| 18 | Performance d’un système AI | Performance d’un système d’IA |
| 19 | Notifier l’autorité | Autorité notifiante |
| 20 | Évaluation de la conformité | Évaluation de la conformité |
| 21 | Organe d’évaluation de la conformité | Organisme d’évaluation de la conformité |
| 22 | Organisme notifié | Organisme notifié |
| 23 | Modification substantielle | Changement important |
| 24 | Marquage CE | Marquage CE |
| 25 | Système de surveillance post-marché | Système de surveillance après la mise sur le marché |
| 26 | Autorité de surveillance du marché | Autorité de surveillance du marché |
| 27 | Norme harmonisée | Norme harmonisée |
| 28 | Spécification commune | Spécification commune |
| 29 | Données de formation | Données de formation |
| 30 | Données de validation | Données de validation |
| 31 | Ensemble de données de validation | Jeu de données de validation |
| 32 | Données de test | Données de test |
| 33 | Données d’entrée | Données d’entrée |
| 34 | Données biométriques | Données biométriques |
| 35 | Identification biométrique | Identification biométrique |
| 36 | Vérification biométrique | Vérification biométrique |
| 37 | Catégories spéciales de données personnelles | Catégories particulières de données à caractère personnel |
| 38 | Données opérationnelles sensibles | Données opérationnelles sensibles |
| 39 | Système de reconnaissance des émotions | Système de reconnaissance des émotions |
| 40 | Système de catégorisation biométrique | Système de catégorisation biométrique |
| 41 | Système d’identification biométrique à distance | Système d’identification biométrique à distance |
| 42 | Système d’identification biométrique à distance en temps réel | Système biométrique d’identification à distance en temps réel |
| 43 | Système d’identification biométrique post-remote | Système d’identification biométrique à distance a posteriori |
| 44 | Espace accessible au public | Espace accessible au public |
| 45 | Autorité d’application de la loi | Autorité de poursuite pénale |
| 46 | Application de la loi | Poursuites judiciaires |
| 47 | AI Office | Bureau de l’intelligence artificielle |
| 48 | Autorité nationale compétente | Autorité nationale compétente |
| 49 | Incident grave | Incident grave |
| 50 | Données personnelles | Données personnelles |
| 51 | Données non personnelles | Données non personnelles |
| 52 | Profilage | Profilage |
| 53 | Plan de test en situation réelle | Plan d’un test en conditions réelles |
| 54 | Plan de bac à sable | Plan du laboratoire réel |
| 55 | AI regulatory sandbox | Laboratoire de recherche en IA |
| 56 | Littératie AI | Compétence en IA |
| 57 | Testing in real-world conditions | Test en conditions réelles |
| 58 | Sujet | Participants au test |
| 59 | Consentement éclairé | Consentement éclairé |
| 60 | Deep fake | Deepfake |
| 61 | Infraction généralisée | Violation généralisée |
| 62 | Infrastructure critique | Infrastructures critiques |
| 63 | Modèle d’IA à usage général | Modèle d’IA à usage général |
| 64 | Capacités à fort impact | Des compétences à fort impact |
| 65 | Risque systémique | Risque systémique |
| 66 | Système AI à usage général | Système d’IA à usage général |
| 67 | Fonctionnement en point flottant | Opération en virgule flottante |
| 68 | Fournisseur d’accès en aval | Fournisseur en aval |