- Der Einsatz von algorithmischen Systemen kann zu Diskriminierungen führen und bestehende strukturelle Muster verstärken.
- Der rechtliche Diskriminierungsschutz in der Schweiz weist Lücken auf, insbesondere bei privaten Akteuren.
- Der Bundesrat plant bis Ende 2024, die Handlungsbedarfe im Bereich algorithmische Systeme und Diskriminierungsschutz zu prüfen.
Eingereichter Text
Algorithmisches Systeme und automatisierte Entscheidungen werden immer häufiger und werden beispielsweise bei Stellenbewerbungen, medizinischer Diagnostik, präventiver Polizeiarbeit oder Risikokalkulationen eingesetzt. Der Einsatz dieser Systeme kann zu Diskriminierungen führen oder Diskriminierungen verstärken, das haben verschiedene Beispiele in der Vergangenheit bereits gezeigt. Dies unter anderem deshalb, weil algorithmische Systeme nicht neutral sind, sondern durch ihr Modell, die zugrundeliegenden Daten, durch die Art und Weise der Anwendung oder durch Rückkoppelungsschlaufen bestehende strukturelle Muster bestätigen oder gar verstärken können. Die Diskriminierung durch Algorithmen kann eine grosse Anzahl von Menschen betreffen, die oft nicht wissen, dass sie davon betroffen sind. Gleichzeitig hat der rechtliche Diskriminierungsschutz in der Schweiz auch unabhängig von der Frage der algorithmischen Diskriminierung gewisse Lücken, wie der Bundesrat im Bericht in Erfüllung des Postulats Naef (12.3543) ausgeführt hat, insbesondere wenn es sich um private und nicht staatliche Akteure handelt. In diesem Zusammenhang bitte ich den Bundesrat um die Beantwortung folgender Fragen:
1. Teilt der Bundesrat die Sorge, dass der Einsatz von algorithmischen Systemen zu Diskriminierungen führen kann?
2. Mit welchen Massnahmen ist vorgesehen, diese Diskriminierungen anzugehen?
3. Plant der Bundesrat eine evidenzbasierte Folgeabschätzung für den Einsatz von algorithmischen Systemen in der Verwaltung, die unter anderem auch zum Ziel haben soll, Auswirkungen auf die Grundrechte abzuschätzen?
4. Wie kann gewährleistet werden, dass Betroffene ihre Rechte wahrnehmen können, wenn sie von algorithmischer Diskriminierung betroffen sind – und auch dann, wenn es sich um eine systematische, strukturelle Diskriminierung handelt?
5. Welche Handhabe gibt es gesetzlich gegen Diskriminierungen für Private?
6. Ist geplant, den gesetzlichen Schutz gegen Diskriminierung zu verstärken?
7. Wie stellt sich der Bundesrat zur Idee, einen allgemeinen Rechtsrahmen für einen verstärkten Diskriminierungsschutz zu schaffen, unter anderem (aber nicht ausschliesslich) zum Schutz vor algorithmischer Diskriminierung?
Stellungnahme des Bundesrats vom 15.11.2023
1. Der Bundesrat ist sich bewusst, dass bestehende Diskriminierungen in der Gesellschaft durch den Einsatz von algorithmischen Systemen systematisch reproduziert und sogar verstärkt werden können. Es ist auch nicht auszuschliessen, dass neue Risiken entstehen. Diese Risiken werden im Bericht “Herausforderungen der künstlichen Intelligenz” von 2019 dokumentiert (www.admin.ch > Dokumentation > Medienmitteilungen > Künstliche Intelligenz: Schweiz befindet sich in guter Ausgangslage). Auch der Bundesrat hat sich in seiner Antwort auf die Frage Balthasar Glättli 23.7270 “Systeme mit generativer künstlicher Intelligenz reproduzieren Diskriminierungen: Braucht es ein Antidiskriminierungsgesetz zur Umsetzung von BV Art. 8, Abs. 2?” bereits zu diesem Thema geäussert. Das Risiko der Diskriminierung ist eine der grössten Herausforderungen im Bereich der künstlichen Intelligenz (KI). Gleichzeitig könnte KI, wenn sie gut konzipiert, trainiert und regelmässig überprüft wird, auch zur Erkennung oder Verhinderung von Diskriminierung eingesetzt werden.
2./6. Der Bericht “Herausforderungen der künstlichen Intelligenz” zeigt, dass die Gefahr der Diskriminierung durch algorithmische Systeme bis zu einem gewissen Grad durch das bestehende Recht abgedeckt wird. So würde das Bundesgesetz über die Gleichstellung von Frau und Mann (SR 151.1), das Diskriminierungen aufgrund des Geschlechts bei der Anstellung und in privatrechtlichen und öffentlich-rechtlichen Arbeitsverhältnissen verbietet, bei einem Rekrutierungsprozess angewendet, der auf einem algorithmischen System beruht. Der Bundesrat hat im Jahr 2020 KI-Leitlinien für den Bund verabschiedet (www.admin.ch > Dokumentation > Medienmitteilungen > Leitlinien “Künstliche Intelligenz” für die Bundesverwaltung verabschiedet). Diese betonen die Notwendigkeit, Personen oder Personengruppen vor Diskriminierung und Stigmatisierung zu schützen. Dazu müssen angemessene technische und organisatorische Schutzmassnahmen und Kontrollen vorgesehen, ausgewogene und qualitativ hochwertige Daten verwendet oder entsprechende flankierende Schutzmassnahmen getroffen werden. Wie in seiner Stellungnahme zum Postulat 23.3201 Dobler “Rechtslage der künstlichen Intelligenz. Unsicherheiten klären, Innovation fördern!” festgehalten, wird der Bundesrat bis Ende 2024 aufzeigen, ob im Bereich von KI Handlungsbedarf besteht. In diesem Zusammenhang wird er prüfen, inwieweit die bestehenden gesetzlichen Bestimmungen einen ausreichenden Schutz vor Diskriminierung bieten und dabei den besonderen Risiken algorithmischer Systeme Rechnung tragen. Er beobachtet dabei auch die Arbeiten des Ausschusses für künstliche Intelligenz des Europarats sowie die Arbeiten der Europäischen Union zum “AI Act”.
3. Das Bundesgesetz über den Datenschutz (DSG; SR 235.1) sieht in Art. 22 die Pflicht zur Durchführung einer Datenschutz-Folgenabschätzung vor, wenn eine Bearbeitung ein hohes Risiko für die Persönlichkeit oder die Grundrechte der betroffenen Person mit sich bringen kann. Die Bearbeitung personenbezogener Daten mithilfe von Algorithmen kann je nach Fall eine solche Folgenabschätzung erforderlich machen. Der Bundesrat wird im Rahmen der oben erwähnten Auslegeordnung, die er bis Ende 2024 präsentieren wird, klären, ob eine Pflicht zur Folgenabschätzung für algorithmische Systeme, die sich auf alle Grundrechte bezieht, erforderlich ist. Dabei wird er sich insbesondere auf die bereits erwähnten Arbeiten des Europarats beziehen.
4./5. Die rechtlichen Mittel, die Diskriminierungsopfern zur Verfügung stehen, variieren je nach Art der Diskriminierung und je nachdem, ob die Diskriminierung von den Behörden oder von Privaten ausgeht. Eine detaillierte Analyse zu diesem Thema wurde vom Schweizerischen Kompetenzzentrum für Menschenrechte (SKMR) im Jahr 2015 durchgeführt (Studie “Zugang zur Justiz in Diskriminierungsfällen”, www.skmr.ch > Publikationen & Projekte > Studien & Gutachten > Zugang zur Justiz in Diskriminierungsfällen, letzte Aktualisierung 2022). Der Schutz, den die gesetzlichen Bestimmungen zur Diskriminierung bieten, unterscheidet nicht danach, ob die Diskriminierung durch den Einsatz algorithmischer Systeme verursacht wird oder nicht. Das DSG sieht jedoch das Recht der betroffenen Person vor, ihren Standpunkt darzulegen, wenn sie Gegenstand einer automatisierten Einzelentscheidung im Sinne von Art. 21 Abs. 1 DSG ist, sowie das Recht zu verlangen, dass diese Entscheidung von einer natürlichen Person überprüft wird (Art. 21 Abs. 2 DSG).
7. In seinem Bericht von 2016 in Beantwortung des Postulats Naef 12.3543 “Bericht zum Recht auf Schutz vor Diskriminierung” äusserte der Bundesrat Vorbehalte gegenüber dem Vorschlag, den Schutz vor Diskriminierung durch eine Ergänzung der Art. 27 ff. des Zivilgesetzbuches (SR 210) zu verstärken. Er betonte, dass eine solche Massnahme einem allgemeinen Diskriminierungsgesetz gleichkäme, das vom Parlament stets abgelehnt worden sei. Den weiteren Arbeiten im Zusammenhang mit KI zu Massnahmen zur Stärkung des gesetzlichen Rahmens in diesem Bereich will der Bundesrat heute nicht vorgreifen.