Der AI Act sieht in Art. 3(56) und Art. 4 eine als „AI Liter­a­cy“ („KI-Kom­pe­tenz“) bezeich­ne­te Pflicht vor, die für Pro­vi­der wie auch Deployer und ihre Mit­ar­bei­ten­den wie auch Hilfs­per­so­nen gilt, und nicht nur für Hoch­ri­si­ko­sy­ste­me, son­dern für alle AI-Systeme.

Wor­um es dabei geht, bestimmt Art. 3(56) AIA:

(56) ‘AI liter­a­cy’ means skills, know­ledge and under­stan­ding that allow pro­vi­ders, deployers and affec­ted per­sons, taking into account their respec­ti­ve rights and obli­ga­ti­ons in the con­text of this Regu­la­ti­on, to make an infor­med deployment of AI systems, as well as to gain awa­re­ness about the oppor­tu­ni­ties and risks of AI and pos­si­ble harm it can cause

Wie man dahin kommt, bestimmt im Anschluss Art. 4 AIA:

Pro­vi­ders and deployers of AI systems shall take mea­su­res to ensu­re, to their best ext­ent, a suf­fi­ci­ent level of AI liter­a­cy of their staff and other per­sons deal­ing with the ope­ra­ti­on and use of AI systems on their behalf, taking into account their tech­ni­cal know­ledge, expe­ri­ence, edu­ca­ti­on and trai­ning and the con­text the AI systems are to be used in, and con­side­ring the per­sons or groups of per­sons on whom the AI systems are to be used.

Weil die­se Pflicht so all­ge­mein ist, weil sie par­al­lel zu ande­ren Gover­nan­ce-Tätig­kei­ten in Angriff genom­men wer­den kann und weil sie bereits seit dem 2. Febru­ar 2025 in Kraft ist, gehört sie zu den ersten Pflich­ten des AI Act, die ins Blick­feld rücken. Sie ist zugleich reich­lich unspezifisch.

Vor die­sem Hin­ter­grund sind die FAQ der Euro­päi­schen Kom­mis­si­on zu Art. 4 AIA vom 7. Mai 2025 will­kom­men. Bemer­kens­wert sind u.a. fol­gen­de Hinweise:

  • Art. 4 ist kei­ne Emp­feh­lung, son­dern sieht eine Pflicht vor;
  • inhalt­lich gibt es aber eini­gen Spiel­raum. Orga­ni­sa­tio­nen soll­ten als Mini­mum aber sicher­stel­len, dass 
    • ein all­ge­mei­nes Ver­ständ­nis­ses von KI erreicht wird (was ist es, wie funk­tio­niert es, was ver­wen­den wir selbst, wel­che Risi­ken usw.),
    • unter Berück­sich­ti­gung der Eigen­hei­ten der Organisation,
    • die Mit­ar­bei­ten­den die rele­van­ten Risi­ken verstehen;
  • das dürf­te in aller Regel Schu­lun­gen bzw. Trai­nings ver­lan­gen; die Gebrauchs­an­wei­sun­gen der AI-Syste­me sind kaum ausreichend;
  • auch dann, wenn bloss ChatGPT ver­wen­det wird, braucht es aus­rei­chen­de AI Liter­a­cy. Die­se Pflicht ist also risi­ko­ba­siert zu kon­kre­ti­sie­ren, aber ohne Baga­tell­schwel­le;
  • das erreich­te Level an KI-Kom­pe­renz muss nicht gemes­sen wer­den, und es müs­sen auch kei­ne Zer­ti­fi­ka­te erreicht oder ver­ge­ben werden;
  • zu schu­len sind nicht nur Mit­ar­bei­ten­de, son­dern auch Exter­ne – ein Punkt, den man in Dienst­lei­stungs­ver­trä­gen in Zukunft zwei­fel­los öfters wie­der­fin­den wird, neben wei­te­ren AI-Klauseln:

    Per­sons deal­ing with the ope­ra­ti­on and use of AI systems on behalf of providers/deployers” means that the­se are not employees, but per­sons broad­ly under the orga­ni­sa­tio­nal remit. It could be, for exam­p­le, a con­trac­tor, a ser­vice pro­vi­der, a client.

  • der Voll­zug liegt bei den natio­na­len Markt­über­wa­chungs­be­hör­den. Sank­tio­nen sind eben­falls den Mit­glied­staa­ten über­las­sen. Die Markt­auf­sichts­be­hör­den wer­den ab dem 2. August 2026 mit der Durch­set­zung beginnen.
  • Art. 4 AI Act kann (natür­lich) extra­ter­ri­to­ri­al anwend­bar sein.

Wei­te­re Unter­la­gen fin­den sich auch im „leben­den Repo­si­to­ry zur För­de­rung des Ler­nens und des Aus­tauschs über KI-Kom­pe­tenz“ – das AI Office hat von den Teil­neh­mern des KI-Pakts Bei­spie­le für lau­fen­de Mass­nah­men zur AI Liter­a­cy zusam­men­ge­tra­gen und hier ver­öf­fent­licht. Bspw. sagt die ita­lie­ni­sche Fast­web, eine Swis­s­com-Toch­ter, sie habe fol­gen­de Mass­nah­men getrof­fen (mit wei­te­ren Hinweisen)

  • 1) AI Gover­nan­ce Model: imple­men­ting an AI Orga­ni­sa­tio­nal Model and an AI Code of Con­duct defi­ning and docu­men­ting roles, respon­si­bi­li­ties, prin­ci­ples, pro­ce­s­ses, rules and pro­hi­bi­ti­ons for the adop­ti­on, usa­ge, sup­p­ly and purcha­se of AI.
  • 2) Accoun­ta­bi­li­ty: defi­ning roles and respon­si­bi­li­ties and for­mal­ly appoin­ting AI-SPOCs (Sin­gle Points of Cont­act), trust­wor­t­hy trai­ned advi­sors to spread AI liter­a­cy within the company.
  • 3) Com­pre­hen­si­ve AI Risk Assess­ment Frame­work: imple­men­ting pro­cess and tool to qua­li­fy the risk score for every AI pro­ject, addres­sing them through appro­pria­te miti­ga­ti­on mea­su­res accor­ding to AI Act, Data Pro­tec­tion, Copy­right, Sus­taina­bi­li­ty regu­la­ti­ons, etc.
  • 4) Role-based AI trai­ning and Awa­re­ness: pro­vi­ding gene­ral and spe­ci­fic trai­ning on AI Gover­nan­ce and Risk Assess­ment for all employees, inclu­ding top manage­ment and AI-SPOCs.
  • 5) Mul­ti-chan­nel approach: offe­ring trai­ning ses­si­ons in per­son, online, live and off­line, main­tai­ning a Lear­ning Hub with 300+ free cour­ses on AI and sha­ring news on AI ‑risk, rules and obligations.
  • 6) Infor­ma­ti­on to affec­ted per­son: pro­vi­ding clear ins­truc­tions, infor­ma­ti­on, and war­nings for AI systems usage;
  • 7) Docu­men­ta­ti­on: main­tai­ning tech­ni­cal docu­men­ta­ti­on, poli­ci­es and templates.