Prof. Dr. Isabelle Wildhaber und Dr. Isabel Ebert haben im Auftrag der Gewerkschaft syndicom und mit Projektleitung von AlgorithmWatch CH ein Rechtsgutachten zu ADM-Systemen (für “Automated Decision-Making”) im Arbeitsbereich verfasst, das hier abrufbar ist. Die NZZ hat dazu berichtet.
Das Gutachten untersucht
- den aktuellen gesetzlichen Rahmen in der Schweiz und international auf Ebene der EU (DSGVO, Richtlinie 89/391 zum Gesundheitsschutz der Arbeitnehmenden), des Europarats (ERK 108, EMRK), der Uno (UNO Pakt I und II, UN Sustainable Development Goals, UN Guiding Principles on Business and Human Rights), der ILO (ILO-Ük 155 und 187), der OECD (Leitsätze für multinationale Unternehmen, Empfehlungen zum Einsatz von Künstlicher Intelligenz) für den Einsatz von ADV-Systemen, die Regelung der Mitsprache der Mitarbeitenden und ihrer Vertretungen und die einschlägigen Gerichtsfälle,
- und den gesetzlichen Handlungsbedarf beim Einsatz von ADM-Systemen.
Die Gutachterinnen diagnostizieren Lücken insbesondere
- beim Mitwirkungsgesetz (MitwG), das zu wenig bekannt sei, keine Sanktionen vorsieht, eine Kündigung aus wirtschaftlichen Gründen nicht verhindert (das wird offenbar als Lücke des MitwG aufgefasst) und nicht ausreichend klärt, wann ADM-Systeme einen Gesundheitsbezug haben (und damit der Mitwirkung unterliegen);
- bei der Beteiligung der Gewerkschaften, die von den kollektivrechtlichen Instrumenten nicht ausreichend Gebrauch machen;
- bei der individuellen Rechtsdurchsetzung, weil die Betroffenen “im Kontext Überwachung und Diskriminierung” mit den “strukturell-systemischen” Auswirkungen von ADM-Systemen oft nicht individuell identifizierbar seien und sowohl materiell- als auch verfahrensrechtliche Hürden zu überwinden sind;
- bei der kollektiven Rechtsdurchsetzung ex post, weil das DSG trotz der Verfügungskompetenz des EDÖB auf die individuelle Durchsetzung ausgelegt ist, Arbeitsinspektorate oft erst einschreiten, wenn ADM-Systeme gesundheitsschädliche Wirkungen haben und prozessrechtliche Barrieren im Weg stehen.
Zur Behebung zumindest bestimmter Lücken postuliert das Gutachten (die NZZ schreibt etwas böse: “wie gewünscht”) auf Gesetzesebene folgende Massnahmen, wobei die Gutachterinnen jeweils konkrete Vorschläge für eine Umsetzung machen:
- Eine Verstärkung der Rechte der Arbeitnehmendenvertretungen und ‑verbände. Insbesondere müssen Arbeitgeber verpflichtet werden, mitarbeitende nicht nur individuell nach dem DSG, sondern auch kollektiv zu informieren. Beim Einsatz von ADM-Systemen und bei späteren Änderungen, die negative Wirkungen haben können, seien Informations- und Konsultationsrechte sicherzustellen;
- die Einsprachemöglichkeiten der Arbeitnehmenden und ihrer Vertretung bei ADM-Systemen seien zu verbessern;
- es seien Strukturen zur Aufsicht und Kontrolle zu schaffen, etwa im Bereich des Risikomanagements oder durch Folgenabschätzungen;
- Lösungen mit der Sozialpartnerschaft seien zu erarbeiten, bevor über Revisionsbestrebungen auf gesetzlicher Ebene nachgedacht wird.
Auf Unternehmensebene wäre eine Sorgfaltspflicht der Arbeitgeber in Anlehnung an die UN Guiding Principles on Business and Human Rights (UNGPs) denkbar, die eine Einbindung der Stakeholder als Teil der Sorgfaltspflicht fordern.
Das Gutachten stellt empirische Ergebnisse aus der Nationalfondsstudie “Big Data or Big Brother? – Big Data HR Control Practices and Employee Trust” (März 2017 bis Februar 2021) voran. Man fragt sich aber, inwiefern die Ergebnisse der Studie dem Gutachten tatsächlich zugrundegelegt werden können. Diese Studie hat zwar offenbar eine Zunahme von People Analytics-Tools ergeben. Sie hat dabei aber sogar Online-Zufriedenheitsumfragen oder Computer-basierte Austrittsbefragungen oder Software zur Steuerung von Videokameras erfasst, also grundsätzlich harmlose Massnahmen. Gemäss der Dissertation von Gabriel Kasper waren folgende die beliebtesten Anwendungen von People Analytics, in dieser Reihenfolge:
- webbasierte Zufriedenheitsumfragen
- Video-Überwachungsanalagen
- Austrittsbefragungen
- RFID-Ausweise
- Feedbackinstrument
Demgegenüber kaum genutzt werden derzeit Roboter zur Rekrutierung oder Stimmungsanalysen. Schon dies deutet kaum auf Handlungsbedarf hin. Das Gutachten quantifiziert denn auch nicht, wie hoch der Anteil eigentlicher ADM-Systeme innerhalb der People Analytics-Tools jeweils war. Gabriel Kasper konstatierte aber, dass bei People Analytics kaum je automatisierte Einzelentscheidungen im Sinne des DSG vorkommen.
Insofern kann man nur feststellen, dass das in der Studie beschriebene Problem trotz der damaligen Studie schlecht dokumentiert ist. Die Verbesserungsvorschläge können daher wohl durchaus Lücken schliessen, aber ob dafür wirklich Bedarf besteht, bleibt offen.
Heiklere ADM-Tools dürften aber wohl zunehmend AI-Systeme verwenden. Vielleicht wäre daher erst die Diskussion um eine Regulierung von AI abzuwarten, bevor sektoriell auf Probleme reagiert wird.