Le site Loi sur l’intelligence artificielle prévoit dans l’art. 3(56) et l’art. 4 une obligation appelée “AI Literacy” (“compétence en matière d’IA”), qui s’applique aux fournisseurs ainsi qu’aux déployeurs et à leurs collaborateurs ainsi qu’aux auxiliaires, et pas seulement aux systèmes à haut risque, mais à tous les systèmes d’IA.
L’article 3(56) de l’AIA précise de quoi il s’agit :
(56) ‘AI literacy’ signifie compétences, connaissances et compréhension qui permettent les fournisseurs de services, les travailleurs détachés et les personnes concernées, en tenant compte de leurs droits et obligations respectifs dans le cadre du présent règlement, à établir une informed deploiement of AI systemsde prendre conscience des possibilités et des risques de l’IA et des dommages qu’elle peut causer
L’art. 4 de l’AIA détermine ensuite comment y parvenir :
Les fournisseurs et les déployeurs de systèmes d’IA doivent prendre des mesures pour s’assurer, pour leur meilleure chance, a niveau suffisant d’AI literacy de leur personnel et d’autres personnes le fonctionnement et l’utilisation des systèmes d’intelligence artificielle en leur nom, en tenant compte de leurs connaissances techniques, de leur expérience, de leur éducation et de leur formation ainsi que du contexte dans lequel les systèmes d’IA doivent être utilisés, et en considérant les personnes ou les groupes de personnes sur lesquels les systèmes d’IA doivent être utilisés.
Parce que cette obligation est si générale, parce qu’elle peut être abordée parallèlement à d’autres activités de gouvernance et parce qu’elle est déjà en vigueur depuis le 2 février 2025, elle est l’une des premières obligations de l’AI Act à attirer l’attention. En même temps, elle n’est pas très spécifique.
Dans ce contexte, les FAQ de la Commission européenne sur l’art. 4 AIA du 7 mai 2025 est la bienvenue. Les indications suivantes, entre autres, sont remarquables :
- L’art. 4 n’est pas une recommandation, mais prévoit une Obligatoire avant ;
- mais il y a une certaine marge de manœuvre quant au contenu. Les organisations devraient au minimum mais s’assurer que
- une compréhension générale de l’IA soit atteinte (qu’est-ce que c’est, comment ça fonctionne, qu’est-ce que nous utilisons nous-mêmes, quels sont les risques, etc,)
- en tenant compte des spécificités de l’organisation,
- les collaborateurs comprennent les risques pertinents
- ce qui, en règle générale, devrait Formations Les modes d’emploi des systèmes d’intelligence artificielle ne sont guère suffisants ;
- même si l’on n’utilise que ChatGPT, il faut une IA Literacy suffisante. Cette obligation est donc basé sur les risques à concrétiser, mais sans seuil de minimis;
- le niveau de compétence en IA atteint n’a pas besoin d’être mesuré, ni d’obtenir ou de délivrer des certificats ;
- Les collaborateurs ne sont pas les seuls à devoir être formés. également des externes – un point que l’on retrouvera sans aucun doute plus souvent dans les contrats de services à l’avenir, à côté d’autres clauses AI :
Personnes chargées de l’exploitation et de l’utilisation de systèmes d’IA pour le compte de fournisseurs/détaillants” signifie qu’il ne s’agit pas de salariés, mais de personnes largement sous le remit organisationnel. Il peut s’agir, par exemple, d’un contractant, d’un fournisseur de services, d’un client.
- l’exécution incombe aux autorités nationales Autorités de surveillance du marché. Les sanctions sont également laissées à l’appréciation des États membres. Les autorités de surveillance du marché à partir du 2 août 2026 commencer à l’appliquer.
- L’article 4 de l’AI Act peut (bien entendu) être applicable de manière extraterritoriale.
D’autres documents se trouvent également dans le “vivre le référentiel pour favoriser l’apprentissage et l’échange sur les compétences en IA“L’AI Office a rassemblé et publié ici des exemples de mesures en cours concernant l’IA Literacy parmi les participants au Pacte pour l’IA. Par exemple, la société italienne Fastweb, une filiale de Swisscom, dit avoir pris les mesures suivantes (avec d’autres indications)
- 1) Modèle de gouvernance de l’IA: mettre en œuvre un modèle organisationnel AI et un code de conduite AI définissant et documentant les rôles, les responsabilités, les principes, les processus, les règles et les interdictions pour l’adoption, l’utilisation, la fourniture et l’achat d’AI.
- 2) Responsabilitédéfinir les rôles et les responsabilités et désigner formellement des AI-SPOC (Single Points of Contact), des conseillers formés et dignes de confiance pour diffuser la culture de l’IA au sein de l’entreprise.
- 3) Cadre d’évaluation globale des risques AI: mettre en place un processus et un outil pour qualifier le score de risque de chaque projet AI, y répondre par des mesures d’atténuation appropriées conformément à l’AI Act, la protection des données, le droit d’auteur, les réglementations en matière de développement durable, etc.
- 4) Formation et sensibilisation à l’IA basée sur les rôles: fournir une formation générale et spécifique sur la gouvernance de l’IA et l’évaluation des risques à tous les employés, y compris les cadres supérieurs et les SPOC de l’IA.
- 5) Approche multicanaleOffrir des sessions de formation en personne, en ligne, en direct et hors ligne, maintenir un Learning Hub avec 300+ cours gratuits sur l’IA et partager des nouvelles sur les risques, les règles et les obligations de l’IA.
- 6) Information à la personne concernée: fournir des instructions, des informations et des avertissements clairs pour l’utilisation des systèmes d’IA ;
- 7) DocumentationMaintenir la documentation technique, les politiques et les modèles.