La Com­mis­si­on euro­pé­en­ne a approu­vé des lignes direc­tri­ces sur la noti­on de système d’in­tel­li­gence arti­fi­ci­el­le (AI), même si elles n’ont pas enco­re été for­mel­le­ment adop­tées (“Lignes direc­tri­ces de la Com­mis­si­on sur la défi­ni­ti­on d’un système d’in­tel­li­gence arti­fi­ci­el­le éta­b­li par le règle­ment (UE) 2024/1689 (AI Act)„):

Les lignes direc­tri­ces de 12 pages – qui Lignes direc­tri­ces sur les pra­ti­ques inter­di­tes ten­tent de cla­ri­fier la noti­on d’AIS, qui n’est fina­le­ment pas défi­nie dans l’AI Act, mais seu­le­ment illu­strée. Les modè­les d’in­tel­li­gence arti­fi­ci­el­le à usa­ge géné­ral (Gene­ral-Pur­po­se AI Models – GPAIM) ne sont pas abordés.

Selon l’ar­tic­le 3(1) de l’AI Act, un AIS est un système assi­s­té par une machi­ne qui doit être “exploi­té avec dif­fér­ents degrés d’au­to­no­mie” et qui, une fois mis en place, peut fai­re preuve d’ad­ap­ta­bi­li­té (“may”), et qui, pour des objec­tifs expli­ci­tes ou impli­ci­tes, déduit des entrées la maniè­re dont il peut géné­rer des sor­ties tel­les que des pré­dic­tions, du con­te­nu, des recom­man­da­ti­ons ou des décis­i­ons, ces sor­ties pou­vant “affec­ter des envi­ron­ne­ments phy­si­ques ou virtuels”.

Selon la Com­mis­si­on, cet­te défi­ni­ti­on com­prend sept élé­mentsIl exi­ste plu­sieurs caté­go­ries d’ac­ti­vi­tés qui ne doi­vent pas néces­saire­ment être tou­tes pré­sen­tes et qui se recoupent :

  1. Système assi­s­té par ordinateur
  2. Auto­no­mie graduelle
  3. Capa­ci­té d’adaptation
  4. Ori­en­ta­ti­on du système vers les tâches (“objec­tifs”)
  5. Infé­rence
  6. les résul­tats (out­put) : Pré­vi­si­ons, con­te­nu, recom­man­da­ti­ons ou décisions
  7. Influence sur l’environnement

Le fait que la défi­ni­ti­on de l’ar­tic­le 3 (1) de l’AI Act ne per­met­te pas une déli­mi­ta­ti­on clai­re, nous l’a­vons souli­g­né dans nos FAQ sur l’AI Act Cet­te con­sta­ta­ti­on est nou­vel­le. mais pas. La Com­mis­si­on euro­pé­en­ne, qui doit, selon l’ar­tic­le 96 de l’AI Act, édic­ter des lignes direc­tri­ces “pour la mise en œuvre pra­tique” de l’AI Act, ten­te donc de pré­cis­er cet­te noti­on. Elle n’y par­vi­ent tou­te­fois qu’en par­tie, avec une sor­te de seuil de mini­mi­sa­ti­on qui est tou­te­fois peu tan­gi­ble. Dans le résu­mé du gui­de, la Com­mis­si­on con­sta­te cet échec avec une clar­té frustrante :

Il n’est pas pos­si­ble de déter­mi­ner auto­ma­ti­quement ou de dress­er une liste exhaus­ti­ve des systè­mes qui ent­rent ou sortent de la défi­ni­ti­on d’un système d’in­tel­li­gence artificielle.

(1) Système assi­s­té par ordi­na­teur : tout ordinateur

Selon la Com­mis­si­on, il s’a­git d’un système fonc­tion­nant sur du maté­ri­el et des logi­ciels, c’est-à-dire un ordinateur.

(2) Auto­no­mie : “Some rea­sonable degree of independence”.

L’au­to­no­mie du système est au cœur de la défi­ni­ti­on. La réfé­rence à l’ar­tic­le 3(1) de l’AI Act, selon laquel­le il exi­ste des degrés d’au­to­no­mie, n’est pas très uti­le – au con­trai­re, elle cou­vr­i­rait en soi l’au­to­no­mie de 1%. Selon le con­sidé­rant 12, il s’a­git tout de même d’un cer­tain degré d’au­to­no­mie. Indé­pen­dance vis-à-vis de l’in­fluence humaine.

La Com­mis­si­on pré­cise que le critère de l’au­to­no­mie et celui de la déri­va­ti­on des résul­tats sont liés, car l’au­to­no­mie se réfè­re à cet­te déri­va­ti­on. En con­sé­quence, il con­vi­ent de par­tir d’un seul critère et non de deux, mais la Com­mis­si­on ne le pré­cise pas.

La que­sti­on de savoir com­ment déter­mi­ner l’au­to­no­mie et quel est le degré néces­saire est plus importan­te. Il est clair qu’un système pas d’AIS c’est quand il y a entiè­re­ment domi­née par un être humain est

…exclut les systè­mes con­çus pour fonc­tion­ner uni­quement avec une par­ti­ci­pa­ti­on et une inter­ven­ti­on humain­es entiè­re­ment manu­el­les. L’im­pli­ca­ti­on et l’in­ter­ven­ti­on humain­es peu­vent être soit direc­tes, par exemp­le par le biais de com­man­des manu­el­les, soit indi­rec­tes, par exemp­le par le biais de com­man­des auto­ma­ti­sées basées sur le système qui per­met­tent à l’hom­me de délé­guer ou de super­vi­ser les opé­ra­ti­ons du système.

La Com­mis­si­on ne répond pas ici à la que­sti­on de savoir quel­le est l’au­to­no­mie requi­se ; sur le fond, elle revi­ent tou­te­fois sur cet­te même que­sti­on lors de l’in­fé­rence (voir ci-dessous) :

Tous les systè­mes qui sont con­çus pour fonc­tion­ner avec un cer­tain degré d’in­dé­pen­dance rai­sonnable d’ac­tions rem­plis­sent la con­di­ti­on d’au­to­no­mie dans la défi­ni­ti­on d’un système IA.

(3) Adap­ta­bi­li­té : pas nécessaire

Selon le con­sidé­rant 12, l’ad­ap­ta­bi­li­té fait réfé­rence à une capa­ci­té d’app­ren­tis­sa­ge, c’est-à-dire à une adap­t­ati­on à l’en­vi­ron­ne­ment qui peut modi­fier l’out­put. Quoi qu’il en soit, la capa­ci­té d’ad­ap­t­ati­on ne fait pas par­tie de la défi­ni­ti­on, car il s’a­git d’un “élé­ment de base”. Critère facul­ta­tif et non obli­ga­toire est

L’uti­li­sa­ti­on du ter­me “peut” en rela­ti­on avec cet élé­ment de la défi­ni­ti­on indi­que qu’un système peut, mais ne doit pas néces­saire­ment, pos­sé­der des capa­ci­tés d’ad­ap­t­ati­on ou d’au­to-app­ren­tis­sa­ge après le déploie­ment pour con­sti­tuer un système IA. En con­sé­quence, la capa­ci­té d’un système à app­rend­re auto­ma­ti­quement […] est facul­ta­ti­ve et donc pas une con­di­ti­on déter­mi­nan­te […].

(4) Ori­en­ta­ti­on vers les tâches

Un AIS doit géné­rer un out­put à par­tir d’un input, et ce “pour des objec­tifs expli­ci­tes ou impli­ci­tes”. La Com­mis­si­on con­sidè­re sans dou­te l’ob­jec­tif com­me une illu­stra­ti­on et se con­tente de pré­cis­er ce qu’il faut entendre par objec­tif dans ce sens

Objec­tifs expli­ci­tes se réfè­rent à des objec­tifs clai­re­ment énon­cés qui sont direc­te­ment enco­dés par le déve­lo­p­peur dans le système. Par exemp­le, ils peu­vent être spé­ci­fi­és com­me l’op­ti­mi­sa­ti­on d’u­ne fonc­tion de coût, une pro­ba­bi­li­té ou une récom­pen­se cumulative.

Objec­tifs impli­ci­tes se réfè­rent à des objec­tifs qui ne sont pas expli­ci­te­ment énon­cés mais qui peu­vent être déduits du com­porte­ment ou des hypo­thè­ses sous-jacen­tes du système. Ces objec­tifs peu­vent décou­ler des don­nées de for­ma­ti­on ou de l’in­ter­ac­tion du système IA avec son environnement.

Il n’en va pas de même pour l’ ”uti­li­sa­ti­on pré­vue” (“inten­ded use”), que l’ar­tic­le 3(12) de l’AI Act défi­nit com­me l’uti­li­sa­ti­on pré­vue par le fournisseur.

(5) Déri­va­ti­on de l’out­put : Seuil de minimis ( !)

C’est mani­fe­stem­ent là que la Com­mis­si­on voit la prin­ci­pa­le limi­te de l’AIS et, com­me nous l’a­vons men­ti­onné, cet élé­ment peut être lu con­join­te­ment avec l’autonomie.

Selon la Com­mis­si­on, la déri­va­ti­on – infé­rence – ne con­cer­ne pas uni­quement la déri­va­ti­on de la pro­duc­tion, mais plutôt la con­cep­ti­on de l’AIS – il doit être con­struit de tel­le sor­te que soit tech­ni­quement en mesu­reLa pro­duc­tion de ces don­nées doit être déduite :

Les ter­mes “infer how to”, uti­li­sés à l’ar­tic­le 3(1) et cla­ri­fi­és au para­gra­phe 12 de l’AI Act, sont plus lar­ges que, et pas seu­le­ment limi­tés à, une com­pré­hen­si­on étroi­te du con­cept d’in­fé­rence en tant que capa­ci­té d’un système à déri­ver des sor­ties à par­tir d’en­trées don­nées, et donc à infé­rer le résul­tat. Par con­sé­quent, la for­mu­la­ti­on uti­li­sée dans l’ar­tic­le 3(1) de la loi sur l’in­tel­li­gence arti­fi­ci­el­le, c’est-à-dire “infers, how to gene­ra­te out­puts”, dev­rait être com­pri­se com­me se réfé­rant à la pha­se de cons­truc­tion, au cours de laquel­le un système déri­ve des out­puts par le biais de tech­ni­ques d’in­tel­li­gence arti­fi­ci­el­le per­met­tant l’inférence.

[…]

En se con­cen­trant spé­ci­fi­quement sur la pha­se de cons­truc­tion du système AI, le reci­tal 12 AI Act pré­cise en out­re que ‘[les] tech­ni­ques qui per­met­tent l’in­fé­rence lors de la cons­truc­tion d’un système AI incluent
[…].

Cet­te cla­ri­fi­ca­ti­on souli­gne expli­ci­te­ment que le con­cept d”inférence’ doit être com­pris dans un sens plus lar­ge com­me étant eng­lo­bant la ‘pha­se de cons­truc­tion’ du système IA.
[…]

Sur cet­te base et sur cel­le du con­sidé­rant 12, la Com­mis­si­on exami­ne de plus près les tech­no­lo­gies concernées :

  • App­ren­tis­sa­ge auto­ma­tique (ML) com­me ter­me générique ;
  • App­ren­tis­sa­ge super­vi­séLe système app­rend à recon­naît­re et à géné­ra­li­ser des modè­les à par­tir de don­nées anno­tées (Ex :. : filt­re anti-spam, clas­si­fi­ca­ti­on des images, détec­tion des fraudes) ;
  • App­ren­tis­sa­ge non super­vi­séLe système app­rend à recon­naît­re des modè­les dans les don­nées non anno­tées (Ex :. : recher­che de nou­vel­les sub­stances acti­ves dans le domaine pharmaceutique ;
  • App­ren­tis­sa­ge auto-super­vi­sé: Un cas d’uti­li­sa­ti­on de l’app­ren­tis­sa­ge non super­vi­sé, dans lequel le système crée lui-même des anno­ta­ti­ons ou défi­nit des objec­tifs (Ex :. : recon­nais­sance d’i­mages, LLMs) ;
  • App­ren­tis­sa­ge par ren­force­mentApp­ren­tis­sa­ge par l’expé­ri­ence via une fonc­tion de récom­pen­se (Ex :. : un robot app­rend à sai­sir des objets ; fonc­tions de recom­man­da­ti­on dans les moteurs de recher­che ; con­duite autonome) ;
  • App­ren­tis­sa­ge pro­fondApp­ren­tis­sa­ge avec des réseaux neu­ro­naux en géné­ral sur la base de gran­des quan­ti­tés de données ;
  • Appro­ches basées sur la logi­que et les con­nais­sancesDéduc­tion déduc­ti­ve ou induc­ti­ve à par­tir de con­nais­sances codées sur la logi­que, les règles défi­nies ou les onto­lo­gies (Ex :. : modè­les lin­gu­isti­ques clas­si­ques basés sur la gram­mai­re et la sém­an­tique, pre­miers systè­mes experts pour le dia­gno­stic médical).

Alors qu’est-ce qui n’est pas un AIS ? Con­sidé­rant 12 :

… la défi­ni­ti­on dev­rait se baser sur les carac­té­ri­sti­ques clés des systè­mes d’IA qui les distin­guent des systè­mes plus simp­les les systè­mes logi­ciels tra­di­ti­on­nels ou les appro­ches de pro­gram­ma­ti­on et ne dev­rait pas cou­vr­ir les systè­mes fon­dés sur des règles défi­nies uni­quement par des per­son­nes phy­si­ques pour l’exé­cu­ti­on auto­ma­tique d’opérations.

Pour la Com­mis­si­on – et c’est le vrai point des lignes direc­tri­ces – il exi­ste des systè­mes capa­bles d’u­ne cer­taine infé­rence, mais qui ne con­sti­tu­ent pas un AIS:

Cer­ta­ins systè­mes ont la capa­ci­té d’in­fé­rer de maniè­re étroi­te mais peu­vent néan­mo­ins sor­tir du champ de la défi­ni­ti­on du système AI en rai­son de leur capa­ci­té d’ana­ly­se limi­tée et aju­stent leur pro­duc­tion de maniè­re autonome.

Bien que cela soit en con­tra­dic­tion avec le con­sidé­rant 12, cela est bien­ve­nu, car les AIS ne peu­vent être distin­gués des aut­res systè­mes que par des critères quan­ti­ta­tifs. Par­mi les systè­mes exclus, la Com­mis­si­on comp­te par exemp­le les sui­vants – la caté­go­rie des modè­les de pré­vi­si­on simp­les est par­ti­cu­liè­re­ment intéressante :

  • Systè­mes pour l’a­mé­lio­ra­ti­on de l’op­ti­mi­sa­ti­on mathé­ma­tique“Cela con­cer­ne par exemp­le les ana­ly­ses sta­ti­sti­ques de régres­si­on (→ FAQ AI Act):

    C’est par­ce que, bien que ces modè­les aient la capa­ci­té d’in­fé­rer, ils ne tran­s­cen­dent pas le ‘trai­te­ment de don­nées de base’.

    On peut citer par exemple

    • Pro­cé­dés uti­li­sés depuis des années (au cas par cas, mais la longue durée d’uti­li­sa­ti­on serait un indi­ce), qui ne font par exemp­le qu’­op­ti­mi­ser un algo­rith­me con­nu en dépla­çant des fonc­tions ou des paramè­tres, com­me les “phy­sics-based systems”, qui amé­lio­rent la puis­sance de cal­cul, par exemp­le à des fins prévisionnelles ;
    • un système qui amé­lio­re l’uti­li­sa­ti­on de la ban­de pas­san­te ou des res­sour­ces dans un système de com­mu­ni­ca­ti­on par satellite.

    En revan­che, ce qui reste cou­vert, ce sont les systè­mes qui per­met­tent “des aju­stem­ents de leurs modè­les de pri­se de décis­i­on de maniè­re intel­li­gen­te”. Ain­si, si une pré­vi­si­on du cours d’u­ne action fonc­tion­ne avec un modè­le de régres­si­on qui s’ad­ap­te en cours d’ex­plo­ita­ti­on, il ne s’a­git pas d’u­ne régres­si­on pure et simp­le et elle serait cou­ver­te. Il dev­rait en être de même pour un système de recom­man­da­ti­on dont les paramè­tres peu­vent s’adapter.

  • Trai­te­ment des don­nées de base“Trai­te­ment de don­nées pré­dé­fi­ni qui trai­te les don­nées d’en­trée selon des règles fixes et sans ML ou aut­re infé­rence (par ex. une fonc­tion de fil­tra­ge dans une base de don­nées) et qui n’app­rend pas ou ne pen­se pas. En font éga­le­ment par­tie, par exemp­le, les systè­mes qui visua­li­sent exclu­si­ve­ment des don­nées à l’ai­de de métho­des sta­ti­sti­ques ou une éva­lua­ti­on sta­ti­stique d’enquêtes.
  • Systè­mes basés sur des heu­ri­sti­ques clas­si­ques“Il s’a­git de trou­ver une solu­ti­on opti­ma­le à un pro­blè­me, par exemp­le à l’ai­de de règles, de la recon­nais­sance des for­mes ou d’es­sais et err­eurs. Con­trai­re­ment à la ML, de tels systè­mes appli­quent des règles défi­nies, par exemp­le un pro­gram­me d’é­checs qui uti­li­se un “Mini­max”, et ne peu­vent ni s’ad­ap­ter ni généraliser.
  • Systè­mes de pré­dic­tion simp­les” : ce sont des systè­mes qui fonc­tion­nent avec des sta­ti­sti­ques simp­les, même s’ils uti­li­sent tech­ni­quement du ML. Ce ne sont pas des AIS “en rai­son de leur per­for­mance” – quel­le que soit la maniè­re dont cela doit être quan­ti­fié. Les exemp­les sont 
    • les pré­vi­si­ons finan­ciè­res, qui pré­voi­ent les cours des actions sur la base du prix histo­ri­que moyen
    • une pré­vi­si­on de la tempé­ra­tu­re sur la base de valeurs de mesu­re historiques,
    • des systè­mes d’e­sti­ma­ti­on, tels qu’un système de ser­vice à la cli­entèle qui esti­me le temps de répon­se ou des pré­vi­si­ons de vente.

(6) Pré­vi­si­ons, con­te­nu, recom­man­da­ti­ons ou décisions

Selon l’ar­tic­le 3(1) de l’AI Act, les AIS et les out­puts tels que “les pré­dic­tions, le con­te­nu, les recom­man­da­ti­ons ou les décis­i­ons” peu­vent “géné­rer des envi­ron­ne­ments phy­si­ques ou vir­tuels qui peu­vent être affec­tés”. Le gui­de abor­de tout d’a­bord les types d’out­put, mais ne con­ti­ent ici rien de plus que des descrip­ti­ons géné­ra­les qui n’ap­portent rien à la com­pré­hen­si­on du terme.

Tou­jours est-il qu’un indi­ce de la pré­sence d’un AIS peut être le Com­ple­xi­té de l’out­put mais ce critère dev­rait coïn­ci­der avec celui de l’au­to­no­mie et de l’inférence :

Les systè­mes d’IA peu­vent géné­ra­le­ment géné­rer des sor­ties plus nuan­cées que d’aut­res systè­mes, par exemp­le en uti­li­sant des modè­les app­ris lors de la for­ma­ti­on ou en uti­li­sant des règles défi­nies par l’expé­ri­ence pour prend­re des décis­i­ons, offrant ain­si un rai­son­ne­ment plus sophi­sti­qué dans des envi­ron­ne­ments structurés.

(7) Influence sur l’environnement

Le fait que les con­te­nus pui­s­sent influen­cer l’en­vi­ron­ne­ment est un aut­re élé­ment de défi­ni­ti­on cité par la Com­mis­si­on. Il n’en résul­te tou­te­fois pas de déli­mi­ta­ti­on par rap­port à d’aut­res systèmes.