La Com­mis­si­on euro­pé­en­ne a annon­cé le 4 février 2025 Lignes direc­tri­ces sur pra­ti­ques inter­di­tes de l’IA après le Loi sur l’in­tel­li­gence arti­fi­ci­el­le publié :

Ces inter­dic­tions sont en vigueur le 2 février 2025 (et les sanc­tions pren­dront effet le 2 août 2025).

Les lignes direc­tri­ces expli­quent la noti­on de pra­ti­ques inter­di­tes et con­ti­en­nent des exemp­les d’ap­pli­ca­ti­on. Elles se fon­dent sur le man­dat con­fié à la Com­mis­si­on par l’ar­tic­le 96 de l’A­IA, qui con­si­ste à édic­ter des lignes direc­tri­ces pour la mise en œuvre pra­tique (voir not­re FAQ AI Act). Cer­tai­nes pra­ti­ques sont inter­di­tes (Use Cases – la mise sur le mar­ché, la mise en ser­vice ou l’uti­li­sa­ti­on de systè­mes qui fait ou doit fai­re des cho­ses inter­di­tes) dans les catégories :

  • Mani­pu­la­ti­on
  • Exploi­ter la faiblesse
  • Scoring social
  • Caté­go­ri­sa­ti­on biométrique
  • Recon­nais­sance des émotions
  • Poli­ce prédictive
  • Scra­ping avec recon­nais­sance faciale
  • Iden­ti­fi­ca­ti­on bio­mé­tri­que publi­que à distance et en temps réel

Les lignes direc­tri­ces se con­cent­rent sur l’in­ter­pré­ta­ti­on de ces cas d’uti­li­sa­ti­on. Elles abor­dent éga­le­ment cer­tai­nes noti­ons connexes :

  • le Mise sur le mar­ché (art. 3(9) AI Act), qui com­prend éga­le­ment la mise à dis­po­si­ti­on via une API ;
  • le Mise en ser­vice (art. 3(11) AI Act), qui com­prend la mise à dis­po­si­ti­on pour une pre­miè­re uti­li­sa­ti­on par un tiers, mais aus­si la pro­pre pre­miè­re uti­li­sa­ti­on (“in-hou­se deve­lo­p­ment and deployment”) ;
  • le Uti­li­sa­ti­onnon défi­ni dans l’AI Act ; tou­te uti­li­sa­ti­on après la mise sur le mar­ché ou la mise en ser­vice. Dans le cad­re des pra­ti­ques inter­di­tes, l’a­bus est éga­le­ment inclus, y com­pris l’a­bus non pré­vi­si­ble (donc pas seu­le­ment l’a­bus pré­vi­si­ble com­me dans l’art. 3(12) et (13) AI Act) ;
  • Four­nis­seurs d’ac­cès – rien de nouveau ;
  • DéployeurIl s’a­git de l’or­ga­nis­me qui uti­li­se le système d’in­for­ma­ti­on sur l’a­si­le (AIS) (pas les col­la­bo­ra­teurs, mais leur employeur), et ce “sous son auto­ri­té”. Cela signi­fie ce qui suit (cf. Rosen­thalIl con­vi­ent de se réfé­rer ici à la pra­tique con­cer­nant le con­cept com­pa­ra­ble de “responsable” ou de “con­trô­leur” dans la pro­tec­tion des données”) :

    L’au­to­ri­té sur un système d’IA doit être com­pri­se com­me le fait d’as­su­mer responsa­bi­li­té sur la décis­i­on de déployer le système et sur la maniè­re de l’uti­li­ser réellement.

    Le four­nis­seur ne doit pas com­mer­cia­li­ser ou mett­re en ser­vice des AIS et des GPAI dont l’uti­li­sa­ti­on inter­di­te est “rea­son­ab­ly likely”. Dans le cas d’u­ne GPAI uti­li­sée pour un chat­bot, le four­nis­seur doit donc mett­re en place des mesu­res de sécu­ri­té. De son côté, le déployeur ne doit pas uti­li­ser l’AIS à des fins inter­di­tes. Les four­nis­seurs doi­vent en out­re évi­ter une uti­li­sa­ti­on inter­di­te par le Deployer exclu­re par cont­rat et – selon le cas – ils doi­vent éga­le­ment per­mett­re le déploie­ment par le Deployer sur­veil­ler. S’ils ont con­nais­sance d’u­ne uti­li­sa­ti­on inter­di­te, ils doi­vent en out­re réagir.

La Com­mis­si­on abor­de ensuite de maniè­re suc­cinc­te Exclu­si­ons d’ap­pli­ca­ti­on un pour

  • le domaine de la sécu­ri­té natio­na­le et de l’armée
  • Ent­rai­de péna­le et coopé­ra­ti­on judiciaire
  • Recher­che et développement
  • acti­vi­té exclu­si­ve­ment per­son­nel­le et
  • FOSS.

D’aut­res thè­mes sont éga­le­ment abor­dés, com­me le Rap­port de l’AI Act à d’aut­res actes légis­la­tifs et Mise en appli­ca­ti­on des interdictions.