Der AI Act sieht in Art. 3(56) und Art. 4 eine als „AI Literacy“ („KI-Kompetenz“) bezeichnete Pflicht vor, die für Provider wie auch Deployer und ihre Mitarbeitenden wie auch Hilfspersonen gilt, und nicht nur für Hochrisikosysteme, sondern für alle AI-Systeme.
Worum es dabei geht, bestimmt Art. 3(56) AIA:
(56) ‘AI literacy’ means skills, knowledge and understanding that allow providers, deployers and affected persons, taking into account their respective rights and obligations in the context of this Regulation, to make an informed deployment of AI systems, as well as to gain awareness about the opportunities and risks of AI and possible harm it can cause
Wie man dahin kommt, bestimmt im Anschluss Art. 4 AIA:
Providers and deployers of AI systems shall take measures to ensure, to their best extent, a sufficient level of AI literacy of their staff and other persons dealing with the operation and use of AI systems on their behalf, taking into account their technical knowledge, experience, education and training and the context the AI systems are to be used in, and considering the persons or groups of persons on whom the AI systems are to be used.
Weil diese Pflicht so allgemein ist, weil sie parallel zu anderen Governance-Tätigkeiten in Angriff genommen werden kann und weil sie bereits seit dem 2. Februar 2025 in Kraft ist, gehört sie zu den ersten Pflichten des AI Act, die ins Blickfeld rücken. Sie ist zugleich reichlich unspezifisch.
Vor diesem Hintergrund sind die FAQ der Europäischen Kommission zu Art. 4 AIA vom 7. Mai 2025 willkommen. Bemerkenswert sind u.a. folgende Hinweise:
- Art. 4 ist keine Empfehlung, sondern sieht eine Pflicht vor;
- inhaltlich gibt es aber einigen Spielraum. Organisationen sollten als Minimum aber sicherstellen, dass
- ein allgemeines Verständnisses von KI erreicht wird (was ist es, wie funktioniert es, was verwenden wir selbst, welche Risiken usw.),
- unter Berücksichtigung der Eigenheiten der Organisation,
- die Mitarbeitenden die relevanten Risiken verstehen;
- das dürfte in aller Regel Schulungen bzw. Trainings verlangen; die Gebrauchsanweisungen der AI-Systeme sind kaum ausreichend;
- auch dann, wenn bloss ChatGPT verwendet wird, braucht es ausreichende AI Literacy. Diese Pflicht ist also risikobasiert zu konkretisieren, aber ohne Bagatellschwelle;
- das erreichte Level an KI-Komperenz muss nicht gemessen werden, und es müssen auch keine Zertifikate erreicht oder vergeben werden;
- zu schulen sind nicht nur Mitarbeitende, sondern auch Externe – ein Punkt, den man in Dienstleistungsverträgen in Zukunft zweifellos öfters wiederfinden wird, neben weiteren AI-Klauseln:
Persons dealing with the operation and use of AI systems on behalf of providers/deployers” means that these are not employees, but persons broadly under the organisational remit. It could be, for example, a contractor, a service provider, a client.
- der Vollzug liegt bei den nationalen Marktüberwachungsbehörden. Sanktionen sind ebenfalls den Mitgliedstaaten überlassen. Die Marktaufsichtsbehörden werden ab dem 2. August 2026 mit der Durchsetzung beginnen.
- Art. 4 AI Act kann (natürlich) extraterritorial anwendbar sein.
Weitere Unterlagen finden sich auch im „lebenden Repository zur Förderung des Lernens und des Austauschs über KI-Kompetenz“ – das AI Office hat von den Teilnehmern des KI-Pakts Beispiele für laufende Massnahmen zur AI Literacy zusammengetragen und hier veröffentlicht. Bspw. sagt die italienische Fastweb, eine Swisscom-Tochter, sie habe folgende Massnahmen getroffen (mit weiteren Hinweisen)
- 1) AI Governance Model: implementing an AI Organisational Model and an AI Code of Conduct defining and documenting roles, responsibilities, principles, processes, rules and prohibitions for the adoption, usage, supply and purchase of AI.
- 2) Accountability: defining roles and responsibilities and formally appointing AI-SPOCs (Single Points of Contact), trustworthy trained advisors to spread AI literacy within the company.
- 3) Comprehensive AI Risk Assessment Framework: implementing process and tool to qualify the risk score for every AI project, addressing them through appropriate mitigation measures according to AI Act, Data Protection, Copyright, Sustainability regulations, etc.
- 4) Role-based AI training and Awareness: providing general and specific training on AI Governance and Risk Assessment for all employees, including top management and AI-SPOCs.
- 5) Multi-channel approach: offering training sessions in person, online, live and offline, maintaining a Learning Hub with 300+ free courses on AI and sharing news on AI ‑risk, rules and obligations.
- 6) Information to affected person: providing clear instructions, information, and warnings for AI systems usage;
- 7) Documentation: maintaining technical documentation, policies and templates.