- Erweiterung des Plattformarbeitsansatzes auf alle Arbeitsverhältnisse mit zusätzlichem Schutz vor algorithmischem Management.
- Verbot der Verarbeitung sensibler Daten wie Emotionen, Neurodaten, privater Kommunikation und Standort ausserhalb der Arbeit.
- Pflichten zu Transparenz, Konsultation, wirksamer menschlicher Aufsicht und Integration von Risiken in Arbeitsschutzsysteme.
Der Beschäftigungsausschuss des EU-Parlaments hat am 17. Dezember 2025 Empfehlungen an die Kommission für eine Richtlinie über algorithmisches Management am Arbeitsplatz verabschiedet (Verfahrensakte.
Nach Art. 225 AEUV kann das Parlament die Kommission auffordern, einen Legislativvorschlag vorzulegen. Ist der Bericht zur legislativen Initiative angenommen, hat die Kommission drei Monate, um das Parlament über die geplanten nächsten Schritte zu informieren oder zu begründen, warum sie den Forderungen des Parlaments nicht nachkommt.
Inhaltlich schliesst der Entwurf an die Plattformarbeitsrichtlinie (siehe dazu Pärli im Jusletter 2024) an, erweitert deren Ansatz aber auf alle Arbeitsverhältnisse. Die Verbotsliste in Art. 5 überschneidet sich teilweise mit Art. 5 AI Act (verbotene KI-Praktiken), geht aber weiter, etwa beim ausdrücklichen Verbot von Neurosurveillance und der Verarbeitung von Daten über den emotionalen Zustand.
Regelungsbedarf
Laut dem Bericht setzen zwischen einem Viertel und 80% der Unternehmen in der EU mindestens eine Form von algorithmischem Management ein. 26.5% der Arbeitnehmer sollen durch Software überwacht werden, bei 27.4% werden Aufgaben über Software zugeteilt.
Der Bericht identifiziert zunächst Lücken im bestehenden Rechtsrahmen. Die Plattformarbeits-RL ist auf Plattformarbeit beschränkt:
[T]he Platform Work Directive’s provisions on algorithmic management (in particular workers’ rights to transparency, human review, worker information and consultation and OSH) only apply to persons performing platform work leaving other workers increasingly subject to algorithmic management less protected; underlines the need to ensure equal treatment of all workers […]
Der Entwurf des Berichts aus dem Sommer 2025 enthielt anders als die Schlussfassung noch klarere Aussagen zu den Schutzlücken des AI Act und der DSGVO:
- Der AI Act klassifiziere zwar arbeitsbezogene KI-Systeme als Hochrisiko, fokussiere aber auf Marktzugang und Produktsicherheit:
The AI Act represents a significant step forward in regulating high-risk artificial intelligence systems, it remains nevertheless insufficient to fully address the challenges posed by algorithmic management in the workplace. Although it classifies work-related AI tools as high-risk, its primary focus is on market placement, product safety, and compliance obligations for providers and users, and not on the employer-worker relationship. Moreover, the AI Act does not apply to algorithmic management systems that are not AI-based, leaving a regulatory gap in addressing the broader impact of digital management tools on workers’ rights, working conditions, and social dialogue.
- Die DSGVO wiederum stamme aus 2016 und sei nicht für die spezifischen Herausforderungen des Datenschutzes am Arbeitsplatz konzipiert:
Regulation (EU) 2016/679 […] dates back to 2016 and was not specifically designed to address the particular challenges of data protection in the workplace […] Article 15(1), point (h), of Regulation (EU) 2016/679, which lays down the transparency requirements for and the limitations of data processing, only provides for clear prohibitions in the case of fully automated decision-making processes, which are therefore not sufficient in most employment-related contexts. What is more, Regulation (EU) 2016/679 adopts individualistic approach and does not grant collective rights. Since the entry into force of Regulation (EU) 2016/679, Article 88 on the protection of workers’ personal data has been poorly implemented and remains largely ineffective in nearly all Member States.
“Algorithmisches Management”
Der Beschluss enthält keine Definition des algorithmischen Managements mehr, anders als der Entwurf, sondern verweist auf die Definition der Plattformarbeitsrichtlinie:
algorithmic management’ should be defined as automated monitoring systems and automated decision-making systems.
Die Plattformarbeitsrichtlinie definiert diese Begriffe in Art. 2:
- Automated monitoring systems: Systeme zur Überwachung, Beaufsichtigung oder Leistungsbewertung durch elektronische Mittel
- Automated decision-making systems: Systeme, die Entscheidungen treffen oder unterstützen, die ihrerseits Arbeitsbedingungen wesentlich beeinflussen
Empfehlungen an die Kommission
Der Anhang enthält elf Empfehlungen zuhanden der EU-Kommission für einen Richtlinienvorschlag:
Transparenz und Informationspflichten (Empfehlung 3)
Arbeitgeber sollen die betroffenen Arbeitnehmer und deren Vertreter schriftlich informieren über:
- Einsatz oder geplanten Einsatz von algorithmischen Managementsystemen
- Auswirkungen auf Arbeitsbedingungen und Beschäftigungsstatus
- Kategorien erhobener Daten, Verarbeitungszwecke und Empfänger
- Mechanismen menschlicher Aufsicht
- Schulungs- und Unterstützungsmassnahmen
Auch Bewerber sollen über automatisierte Entscheidungssysteme informiert werden.
Konsultationspflichten (Empfehlung 4)
Die Einführung neuer Systeme, die Vergütung, Bewertung, Arbeitsorganisation, Aufgabenverteilung oder Arbeitszeit betreffen, soll Konsultationspflichten auslösen.
Verbotene Praktiken (Empfehlung 5)
Die Resolution fordert ein Verbot der Verarbeitung folgender Daten:
- Gefühle, Stimmungen, Hirnaktivität oder biometrische Daten
- Private Kommunikation, auch mit Kollegen oder Arbeitnehmervertretern
- Verhalten ausserhalb der Arbeitszeit oder in privaten Räumen; Standortverfolgung ausserhalb der Arbeitszeit
- Daten, die Rückschlüsse auf gewerkschaftliche Aktivitäten oder die Ausübung anderer Grundrechte erlauben
- besondere Daten nach Art. 9 DSGVO (Gesundheit, Ethnie, Religion, politische Meinung, sexuelle Orientierung usw.) sowie Rückschlüsse auf solche Daten
Diese Verbote sollen auch für das Bewerbungsverfahren gelten.
Menschliche Aufsicht (Empfehlung 6)
Die Resolution verlangt kontinuierliche und wirksame menschliche Aufsicht über alle Entscheidungen, die durch algorithmisches Management getroffen oder unterstützt werden:
The persons responsible for oversight and evaluation should have the competence, training and authority necessary to exercise those functions, including the authority to override automated decisions.
Arbeitnehmer sollen ein Recht auf Erklärung haben für Entscheidungen, die wesentliche Aspekte ihres Arbeitsverhältnisses betreffen. Für bestimmte Entscheidungen gilt ein Automatisierungsverbot:
Decisions concerning the initiation or termination of employment, the renewal or non-renewal of a contractual agreement, or any changes in remuneration or disciplinary action should always be taken by a human being and should be subject to human review.
Arbeitsschutz (Empfehlung 7)
Arbeitgeber sollen die Risiken algorithmischer Systeme in ihre Arbeitsschutzsysteme integrieren, einschliesslich psychosozialer und ergonomischer Risiken sowie “undue pressure” auf Arbeitnehmer.
Aufsicht (Empfehlungen 8 und 10)
Die Arbeitsinspektorate sollen für die Überwachung zuständig sein. Zusätzlich sollen die Datenschutzbehörden die Anwendung der Bestimmungen zur Datenverarbeitung im Beschäftigungskontext überwachen, in Zusammenarbeit mit den Arbeitsbehörden.
Verhältnismässigkeit und KMU
KMU sollen vor zuviel Bürokratie verschont bleiben:
The proposal should respect the principle of proportionality and should ensure that the administrative and compliance burden imposed is appropriate to the size of the employer and the resources at its disposal, the nature of the technologies used, and the level of the risk involved, particularly with regard to micro, small and medium-sized enterprises.