Le site Loi sur l’in­tel­li­gence arti­fi­ci­el­le pré­voit dans l’art. 3(56) et l’art. 4 une obli­ga­ti­on appelée “AI Liter­a­cy” (“com­pé­tence en matiè­re d’IA”), qui s’ap­pli­que aux four­nis­seurs ain­si qu’aux déployeurs et à leurs col­la­bo­ra­teurs ain­si qu’aux auxi­li­ai­res, et pas seu­le­ment aux systè­mes à haut ris­que, mais à tous les systè­mes d’IA.

L’ar­tic­le 3(56) de l’A­IA pré­cise de quoi il s’agit :

(56) ‘AI liter­a­cy’ signi­fie com­pé­ten­ces, con­nais­sances et com­pré­hen­si­on qui per­met­tent les four­nis­seurs de ser­vices, les tra­vail­leurs dét­a­chés et les per­son­nes con­cer­nées, en tenant comp­te de leurs droits et obli­ga­ti­ons respec­tifs dans le cad­re du pré­sent règle­ment, à éta­b­lir une infor­med deploie­ment of AI systemsde prend­re con­sci­ence des pos­si­bi­li­tés et des ris­ques de l’IA et des dom­mages qu’el­le peut causer

L’art. 4 de l’A­IA déter­mi­ne ensuite com­ment y parvenir :

Les four­nis­seurs et les déployeurs de systè­mes d’IA doi­vent prend­re des mesu­res pour s’assurer, pour leur meil­leu­re chan­ce, a niveau suf­fi­sant d’AI liter­a­cy de leur per­son­nel et d’aut­res per­son­nes le fonc­tion­ne­ment et l’uti­li­sa­ti­on des systè­mes d’in­tel­li­gence arti­fi­ci­el­le en leur nom, en tenant comp­te de leurs con­nais­sances tech­ni­ques, de leur expé­ri­ence, de leur édu­ca­ti­on et de leur for­ma­ti­on ain­si que du con­tex­te dans lequel les systè­mes d’IA doi­vent être uti­li­sés, et en con­sidé­rant les per­son­nes ou les grou­pes de per­son­nes sur les­quels les systè­mes d’IA doi­vent être utilisés.

Par­ce que cet­te obli­ga­ti­on est si géné­ra­le, par­ce qu’el­le peut être abor­dée par­al­lè­le­ment à d’aut­res acti­vi­tés de gou­ver­nan­ce et par­ce qu’el­le est déjà en vigueur depuis le 2 février 2025, elle est l’u­ne des pre­miè­res obli­ga­ti­ons de l’AI Act à atti­rer l’at­ten­ti­on. En même temps, elle n’est pas très spécifique.

Dans ce con­tex­te, les FAQ de la Com­mis­si­on euro­pé­en­ne sur l’art. 4 AIA du 7 mai 2025 est la bien­ve­nue. Les indi­ca­ti­ons sui­van­tes, ent­re aut­res, sont remarquables :

  • L’art. 4 n’est pas une recom­man­da­ti­on, mais pré­voit une Obli­ga­toire avant ;
  • mais il y a une cer­taine mar­ge de manœu­vre quant au con­te­nu. Les orga­ni­sa­ti­ons dev­rai­ent au mini­mum mais s’assurer que 
    • une com­pré­hen­si­on géné­ra­le de l’IA soit att­ein­te (qu’est-ce que c’est, com­ment ça fonc­tion­ne, qu’est-ce que nous uti­li­sons nous-mêmes, quels sont les ris­ques, etc,)
    • en tenant comp­te des spé­ci­fi­ci­tés de l’organisation,
    • les col­la­bo­ra­teurs com­pren­nent les ris­ques pertinents
  • ce qui, en règ­le géné­ra­le, dev­rait For­ma­ti­ons Les modes d’em­ploi des systè­mes d’in­tel­li­gence arti­fi­ci­el­le ne sont guè­re suffisants ;
  • même si l’on n’uti­li­se que ChatGPT, il faut une IA Liter­a­cy suf­fi­san­te. Cet­te obli­ga­ti­on est donc basé sur les ris­ques à con­cré­ti­ser, mais sans seuil de mini­mis;
  • le niveau de com­pé­tence en IA att­eint n’a pas beso­in d’êt­re mesu­ré, ni d’ob­te­nir ou de déli­v­rer des certificats ;
  • Les col­la­bo­ra­teurs ne sont pas les seuls à devoir être for­més. éga­le­ment des exter­nes – un point que l’on retrou­ve­ra sans aucun dou­te plus sou­vent dans les cont­rats de ser­vices à l’a­ve­nir, à côté d’aut­res clau­ses AI :

    Per­son­nes char­gées de l’ex­plo­ita­ti­on et de l’uti­li­sa­ti­on de systè­mes d’IA pour le comp­te de fournisseurs/détaillants” signi­fie qu’il ne s’a­git pas de sala­riés, mais de per­son­nes lar­ge­ment sous le remit orga­ni­sa­ti­on­nel. Il peut s’a­gir, par exemp­le, d’un con­trac­tant, d’un four­nis­seur de ser­vices, d’un client.

  • l’exé­cu­ti­on incom­be aux auto­ri­tés natio­na­les Auto­ri­tés de sur­veil­lan­ce du mar­ché. Les sanc­tions sont éga­le­ment lais­sées à l’ap­pré­cia­ti­on des États mem­bres. Les auto­ri­tés de sur­veil­lan­ce du mar­ché à par­tir du 2 août 2026 com­men­cer à l’appliquer.
  • L’ar­tic­le 4 de l’AI Act peut (bien enten­du) être appli­ca­ble de maniè­re extraterritoriale.

D’aut­res docu­ments se trou­vent éga­le­ment dans le “viv­re le réfé­ren­tiel pour favo­ri­ser l’app­ren­tis­sa­ge et l’é­ch­an­ge sur les com­pé­ten­ces en IA“L’AI Office a ras­sem­blé et publié ici des exemp­les de mesu­res en cours con­cer­nant l’IA Liter­a­cy par­mi les par­ti­ci­pan­ts au Pac­te pour l’IA. Par exemp­le, la socié­té ita­li­en­ne Fast­web, une filia­le de Swis­s­com, dit avoir pris les mesu­res sui­van­tes (avec d’aut­res indications)

  • 1) Modè­le de gou­ver­nan­ce de l’IA: mett­re en œuvre un modè­le orga­ni­sa­ti­on­nel AI et un code de con­duite AI défi­nis­sant et docu­men­tant les rôles, les responsa­bi­li­tés, les prin­cipes, les pro­ce­s­sus, les règles et les inter­dic­tions pour l’ad­op­ti­on, l’uti­li­sa­ti­on, la four­ni­tu­re et l’achat d’AI.
  • 2) Responsa­bi­li­tédéfi­nir les rôles et les responsa­bi­li­tés et dési­gner for­mel­le­ment des AI-SPOC (Sin­gle Points of Cont­act), des con­seil­lers for­més et dignes de con­fi­ance pour dif­fu­ser la cul­tu­re de l’IA au sein de l’entreprise.
  • 3) Cad­re d’éva­lua­ti­on glo­ba­le des ris­ques AI: mett­re en place un pro­ce­s­sus et un outil pour qua­li­fier le score de ris­que de chaque pro­jet AI, y répond­re par des mesu­res d’at­té­nua­ti­on appro­priées con­for­mé­ment à l’AI Act, la pro­tec­tion des don­nées, le droit d’au­teur, les régle­men­ta­ti­ons en matiè­re de déve­lo­p­pe­ment dura­ble, etc.
  • 4) For­ma­ti­on et sen­si­bi­li­sa­ti­on à l’IA basée sur les rôles: four­nir une for­ma­ti­on géné­ra­le et spé­ci­fi­que sur la gou­ver­nan­ce de l’IA et l’éva­lua­ti­on des ris­ques à tous les employés, y com­pris les cad­res supé­ri­eurs et les SPOC de l’IA.
  • 5) Appro­che mul­ti­ca­na­leOffrir des ses­si­ons de for­ma­ti­on en per­son­ne, en ligne, en direct et hors ligne, main­te­nir un Lear­ning Hub avec 300+ cours gra­tuits sur l’IA et par­ta­ger des nou­vel­les sur les ris­ques, les règles et les obli­ga­ti­ons de l’IA.
  • 6) Infor­ma­ti­on à la per­son­ne con­cer­née: four­nir des ins­truc­tions, des infor­ma­ti­ons et des aver­tis­se­ments clairs pour l’uti­li­sa­ti­on des systè­mes d’IA ;
  • 7) Docu­men­ta­ti­onMain­te­nir la docu­men­ta­ti­on tech­ni­que, les poli­ti­ques et les modèles.