La Commission européenne a approuvé des lignes directrices sur la notion de système d’intelligence artificielle (AI), même si elles n’ont pas encore été formellement adoptées (“Lignes directrices de la Commission sur la définition d’un système d’intelligence artificielle établi par le règlement (UE) 2024/1689 (AI Act)„):
Les lignes directrices de 12 pages – qui Lignes directrices sur les pratiques interdites tentent de clarifier la notion d’AIS, qui n’est finalement pas définie dans l’AI Act, mais seulement illustrée. Les modèles d’intelligence artificielle à usage général (General-Purpose AI Models – GPAIM) ne sont pas abordés.
Selon l’article 3(1) de l’AI Act, un AIS est un système assisté par une machine qui doit être “exploité avec différents degrés d’autonomie” et qui, une fois mis en place, peut faire preuve d’adaptabilité (“may”), et qui, pour des objectifs explicites ou implicites, déduit des entrées la manière dont il peut générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions, ces sorties pouvant “affecter des environnements physiques ou virtuels”.
Selon la Commission, cette définition comprend sept élémentsIl existe plusieurs catégories d’activités qui ne doivent pas nécessairement être toutes présentes et qui se recoupent :
- Système assisté par ordinateur
- Autonomie graduelle
- Capacité d’adaptation
- Orientation du système vers les tâches (“objectifs”)
- Inférence
- les résultats (output) : Prévisions, contenu, recommandations ou décisions
- Influence sur l’environnement
Le fait que la définition de l’article 3 (1) de l’AI Act ne permette pas une délimitation claire, nous l’avons souligné dans nos FAQ sur l’AI Act Cette constatation est nouvelle. mais pas. La Commission européenne, qui doit, selon l’article 96 de l’AI Act, édicter des lignes directrices “pour la mise en œuvre pratique” de l’AI Act, tente donc de préciser cette notion. Elle n’y parvient toutefois qu’en partie, avec une sorte de seuil de minimisation qui est toutefois peu tangible. Dans le résumé du guide, la Commission constate cet échec avec une clarté frustrante :
Il n’est pas possible de déterminer automatiquement ou de dresser une liste exhaustive des systèmes qui entrent ou sortent de la définition d’un système d’intelligence artificielle.
(1) Système assisté par ordinateur : tout ordinateur
Selon la Commission, il s’agit d’un système fonctionnant sur du matériel et des logiciels, c’est-à-dire un ordinateur.
(2) Autonomie : “Some reasonable degree of independence”.
L’autonomie du système est au cœur de la définition. La référence à l’article 3(1) de l’AI Act, selon laquelle il existe des degrés d’autonomie, n’est pas très utile – au contraire, elle couvrirait en soi l’autonomie de 1%. Selon le considérant 12, il s’agit tout de même d’un certain degré d’autonomie. Indépendance vis-à-vis de l’influence humaine.
La Commission précise que le critère de l’autonomie et celui de la dérivation des résultats sont liés, car l’autonomie se réfère à cette dérivation. En conséquence, il convient de partir d’un seul critère et non de deux, mais la Commission ne le précise pas.
La question de savoir comment déterminer l’autonomie et quel est le degré nécessaire est plus importante. Il est clair qu’un système pas d’AIS c’est quand il y a entièrement dominée par un être humain est
…exclut les systèmes conçus pour fonctionner uniquement avec une participation et une intervention humaines entièrement manuelles. L’implication et l’intervention humaines peuvent être soit directes, par exemple par le biais de commandes manuelles, soit indirectes, par exemple par le biais de commandes automatisées basées sur le système qui permettent à l’homme de déléguer ou de superviser les opérations du système.
La Commission ne répond pas ici à la question de savoir quelle est l’autonomie requise ; sur le fond, elle revient toutefois sur cette même question lors de l’inférence (voir ci-dessous) :
Tous les systèmes qui sont conçus pour fonctionner avec un certain degré d’indépendance raisonnable d’actions remplissent la condition d’autonomie dans la définition d’un système IA.
(3) Adaptabilité : pas nécessaire
Selon le considérant 12, l’adaptabilité fait référence à une capacité d’apprentissage, c’est-à-dire à une adaptation à l’environnement qui peut modifier l’output. Quoi qu’il en soit, la capacité d’adaptation ne fait pas partie de la définition, car il s’agit d’un “élément de base”. Critère facultatif et non obligatoire est
L’utilisation du terme “peut” en relation avec cet élément de la définition indique qu’un système peut, mais ne doit pas nécessairement, posséder des capacités d’adaptation ou d’auto-apprentissage après le déploiement pour constituer un système IA. En conséquence, la capacité d’un système à apprendre automatiquement […] est facultative et donc pas une condition déterminante […].
(4) Orientation vers les tâches
Un AIS doit générer un output à partir d’un input, et ce “pour des objectifs explicites ou implicites”. La Commission considère sans doute l’objectif comme une illustration et se contente de préciser ce qu’il faut entendre par objectif dans ce sens
Objectifs explicites se réfèrent à des objectifs clairement énoncés qui sont directement encodés par le développeur dans le système. Par exemple, ils peuvent être spécifiés comme l’optimisation d’une fonction de coût, une probabilité ou une récompense cumulative.
Objectifs implicites se réfèrent à des objectifs qui ne sont pas explicitement énoncés mais qui peuvent être déduits du comportement ou des hypothèses sous-jacentes du système. Ces objectifs peuvent découler des données de formation ou de l’interaction du système IA avec son environnement.
Il n’en va pas de même pour l’ ”utilisation prévue” (“intended use”), que l’article 3(12) de l’AI Act définit comme l’utilisation prévue par le fournisseur.
(5) Dérivation de l’output : Seuil de minimis ( !)
C’est manifestement là que la Commission voit la principale limite de l’AIS et, comme nous l’avons mentionné, cet élément peut être lu conjointement avec l’autonomie.
Selon la Commission, la dérivation – inférence – ne concerne pas uniquement la dérivation de la production, mais plutôt la conception de l’AIS – il doit être construit de telle sorte que soit techniquement en mesureLa production de ces données doit être déduite :
Les termes “infer how to”, utilisés à l’article 3(1) et clarifiés au paragraphe 12 de l’AI Act, sont plus larges que, et pas seulement limités à, une compréhension étroite du concept d’inférence en tant que capacité d’un système à dériver des sorties à partir d’entrées données, et donc à inférer le résultat. Par conséquent, la formulation utilisée dans l’article 3(1) de la loi sur l’intelligence artificielle, c’est-à-dire “infers, how to generate outputs”, devrait être comprise comme se référant à la phase de construction, au cours de laquelle un système dérive des outputs par le biais de techniques d’intelligence artificielle permettant l’inférence.
[…]En se concentrant spécifiquement sur la phase de construction du système AI, le recital 12 AI Act précise en outre que ‘[les] techniques qui permettent l’inférence lors de la construction d’un système AI incluent
[…].Cette clarification souligne explicitement que le concept d”inférence’ doit être compris dans un sens plus large comme étant englobant la ‘phase de construction’ du système IA.
[…]
Sur cette base et sur celle du considérant 12, la Commission examine de plus près les technologies concernées :
- Apprentissage automatique (ML) comme terme générique ;
- Apprentissage superviséLe système apprend à reconnaître et à généraliser des modèles à partir de données annotées (Ex :. : filtre anti-spam, classification des images, détection des fraudes) ;
- Apprentissage non superviséLe système apprend à reconnaître des modèles dans les données non annotées (Ex :. : recherche de nouvelles substances actives dans le domaine pharmaceutique ;
- Apprentissage auto-supervisé: Un cas d’utilisation de l’apprentissage non supervisé, dans lequel le système crée lui-même des annotations ou définit des objectifs (Ex :. : reconnaissance d’images, LLMs) ;
- Apprentissage par renforcementApprentissage par l’expérience via une fonction de récompense (Ex :. : un robot apprend à saisir des objets ; fonctions de recommandation dans les moteurs de recherche ; conduite autonome) ;
- Apprentissage profondApprentissage avec des réseaux neuronaux en général sur la base de grandes quantités de données ;
- Approches basées sur la logique et les connaissancesDéduction déductive ou inductive à partir de connaissances codées sur la logique, les règles définies ou les ontologies (Ex :. : modèles linguistiques classiques basés sur la grammaire et la sémantique, premiers systèmes experts pour le diagnostic médical).
Alors qu’est-ce qui n’est pas un AIS ? Considérant 12 :
… la définition devrait se baser sur les caractéristiques clés des systèmes d’IA qui les distinguent des systèmes plus simples les systèmes logiciels traditionnels ou les approches de programmation et ne devrait pas couvrir les systèmes fondés sur des règles définies uniquement par des personnes physiques pour l’exécution automatique d’opérations.
Pour la Commission – et c’est le vrai point des lignes directrices – il existe des systèmes capables d’une certaine inférence, mais qui ne constituent pas un AIS:
Certains systèmes ont la capacité d’inférer de manière étroite mais peuvent néanmoins sortir du champ de la définition du système AI en raison de leur capacité d’analyse limitée et ajustent leur production de manière autonome.
Bien que cela soit en contradiction avec le considérant 12, cela est bienvenu, car les AIS ne peuvent être distingués des autres systèmes que par des critères quantitatifs. Parmi les systèmes exclus, la Commission compte par exemple les suivants – la catégorie des modèles de prévision simples est particulièrement intéressante :
- “Systèmes pour l’amélioration de l’optimisation mathématique“Cela concerne par exemple les analyses statistiques de régression (→ FAQ AI Act):
C’est parce que, bien que ces modèles aient la capacité d’inférer, ils ne transcendent pas le ‘traitement de données de base’.
On peut citer par exemple
- Procédés utilisés depuis des années (au cas par cas, mais la longue durée d’utilisation serait un indice), qui ne font par exemple qu’optimiser un algorithme connu en déplaçant des fonctions ou des paramètres, comme les “physics-based systems”, qui améliorent la puissance de calcul, par exemple à des fins prévisionnelles ;
- un système qui améliore l’utilisation de la bande passante ou des ressources dans un système de communication par satellite.
En revanche, ce qui reste couvert, ce sont les systèmes qui permettent “des ajustements de leurs modèles de prise de décision de manière intelligente”. Ainsi, si une prévision du cours d’une action fonctionne avec un modèle de régression qui s’adapte en cours d’exploitation, il ne s’agit pas d’une régression pure et simple et elle serait couverte. Il devrait en être de même pour un système de recommandation dont les paramètres peuvent s’adapter.
- „Traitement des données de base“Traitement de données prédéfini qui traite les données d’entrée selon des règles fixes et sans ML ou autre inférence (par ex. une fonction de filtrage dans une base de données) et qui n’apprend pas ou ne pense pas. En font également partie, par exemple, les systèmes qui visualisent exclusivement des données à l’aide de méthodes statistiques ou une évaluation statistique d’enquêtes.
- „Systèmes basés sur des heuristiques classiques“Il s’agit de trouver une solution optimale à un problème, par exemple à l’aide de règles, de la reconnaissance des formes ou d’essais et erreurs. Contrairement à la ML, de tels systèmes appliquent des règles définies, par exemple un programme d’échecs qui utilise un “Minimax”, et ne peuvent ni s’adapter ni généraliser.
- „Systèmes de prédiction simples” : ce sont des systèmes qui fonctionnent avec des statistiques simples, même s’ils utilisent techniquement du ML. Ce ne sont pas des AIS “en raison de leur performance” – quelle que soit la manière dont cela doit être quantifié. Les exemples sont
- les prévisions financières, qui prévoient les cours des actions sur la base du prix historique moyen
- une prévision de la température sur la base de valeurs de mesure historiques,
- des systèmes d’estimation, tels qu’un système de service à la clientèle qui estime le temps de réponse ou des prévisions de vente.
(6) Prévisions, contenu, recommandations ou décisions
Selon l’article 3(1) de l’AI Act, les AIS et les outputs tels que “les prédictions, le contenu, les recommandations ou les décisions” peuvent “générer des environnements physiques ou virtuels qui peuvent être affectés”. Le guide aborde tout d’abord les types d’output, mais ne contient ici rien de plus que des descriptions générales qui n’apportent rien à la compréhension du terme.
Toujours est-il qu’un indice de la présence d’un AIS peut être le Complexité de l’output mais ce critère devrait coïncider avec celui de l’autonomie et de l’inférence :
Les systèmes d’IA peuvent généralement générer des sorties plus nuancées que d’autres systèmes, par exemple en utilisant des modèles appris lors de la formation ou en utilisant des règles définies par l’expérience pour prendre des décisions, offrant ainsi un raisonnement plus sophistiqué dans des environnements structurés.
(7) Influence sur l’environnement
Le fait que les contenus puissent influencer l’environnement est un autre élément de définition cité par la Commission. Il n’en résulte toutefois pas de délimitation par rapport à d’autres systèmes.