Eingereichter Text
Der Einsatz von Künstlicher Intelligenz (KI) kann bestehende gesellschaftliche Ungleichheiten verstärken. Internationale Beispiele zeigen, dass KI-gestützte Entscheidungen sozial und wirtschaftlich benachteiligte Gruppen hart treffen können. Auch in der Schweiz beeinflussen Algorithmen zunehmend wichtige Lebensbereiche: Sie bewerten Bewerbungen, analysieren Kreditwürdigkeit und empfehlen Inhalte auf Social Media. Studien belegen, dass Menschen durch algorithmische Diskriminierung benachteiligt werden können. KI-Systeme können zum Beispiel im Recruiting-Prozess Männer bevorzugen, und Frauen können schlechtere Kreditkonditionen erhalten, obwohl ihre finanzielle Situation vergleichbar ist. Generative KI verstärkt zudem geschlechtsspezifische Stereotype.
KI-Systeme werden oft eingesetzt ohne, dass Betroffene davon wissen und operieren oft in intransparenten „Black Boxes“, wodurch Betroffene Benachteiligungen schwer nachvollziehen können. Rückkopplungseffekte können zudem bestehende Vorurteile verstärken. In seinem Grundsatzentscheid erkennt der Bundesrat den Regulierungsbedarf an und beabsichtigt, die KI-Konvention des Europarats zu ratifizieren. Diese fokussiert jedoch auf staatliche Akteure und lässt Risiken im privaten Sektor unbeachtet. Ohne klare gesetzliche Anpassungen besteht ein Schutzvakuum, da in der Schweiz kein allgemeines Antidiskriminierungsgesetz für private Akteure existiert. Die Herausforderungen algorithmischer Diskriminierung wie Skalierungseffekte oder Verzerrungen in Trainingsdaten erfordern gezielte Massnahmen.
1. Wie will der Bundesrat diese Schwächen angehen?
2. Die KI-Konvention des Europarates bezieht sich primär auf staatliche Akteure. Wie will der BR die Bevölkerung vor Diskriminierung schützen, wenn KI-Systeme zunehmend auch von privaten Akteuren eingesetzt werden?
3. Konkrete Fälle zeigen, dass unter anderem Frauen beim Einsatz von KI-Systemen diskriminierende Folgen erleiden können, etwa im Recruiting, bei der Prüfung von Kreditwürdigkeit, durch generative KI oder Social Media. Wie kann der BR seine Schutzpflicht vor Diskriminierung in solchen Fällen im privaten Sektor erfüllen?
4. Wie gedenkt der BR sicherzustellen, dass KI-gestützte Recruiting-Systeme Chancengleichheit gewährleisten und nicht systematisch Bewerbungen von Frauen oder anderen diskriminierten Gruppen benachteiligen?
Stellungnahme des Bundesrats vom 14.5.2025
Der Bundesrat beantwortet die gestellten Fragen in ihrer Gesamtheit. Er ist sich bewusst, dass der zunehmende Einsatz von Systemen künstlicher Intelligenz mit gewissen Risiken verbunden ist, die namentlich das Recht auf Gleichbehandlung und Nichtdiskriminierung betreffen, auch im privaten Sektor (siehe insbesondere die Stellungnahme auf die Interpellation Marti Min Li 23.4133 Algorithmische Diskriminierung. Ist der gesetzliche Diskriminierungsschutz ausreichend?).
Die Konzeption der KI muss das Risiko einer Verstärkung und Systematisierung von Diskriminierungen insbesondere gegenüber Frauen und Minderheiten berücksichtigen. Denn Algorithmen werden anhand von Daten trainiert, welche die Vorurteile der Gesellschaft widerspiegeln und dazu neigen, diese zu reproduzieren. Die Entstehung von Verzerrungen und deren Auswirkungen sind äusserst komplex, weshalb dem gesamten KI-Lebenszyklus besondere Aufmerksamkeit zu widmen ist. Andererseits könnte KI beispielsweise auch die Erkennung von Selektionsverzerrungen im Recruiting-Prozess erleichtern.
Das Übereinkommen des Europarates über künstliche Intelligenz und Menschenrechte, Demokratie und Rechtsstaatlichkeit gilt für den öffentlichen und den privaten Sektor. Im privaten Sektor verfügen die Staaten jedoch über mehr Handlungsspielraum in Bezug auf den Umfang und die Intensität der Massnahmen, die zur Erreichung der Ziele des Übereinkommens zu ergreifen sind. Der Bundesrat hat diesen Spielraum genutzt und sich in seinem Beschluss vom 12. Februar 2025 (siehe die Medienmitteilung dazu: https://www.bj.admin.ch/bj/de/home/aktuell/mm.msg-id-104110.html) für eine Gesetzgebung ausgesprochen, die hauptsächlich auf den öffentlichen Sektor ausgerichtet ist, aber auch den privaten Sektor einschliessen kann, wenn es um die Grundrechte des Einzelnen geht. Das Rechtsetzungsprojekt, welches das EJPD im Auftrag des Bundesrates bis 2026 ausarbeiten wird, soll daher namentlich die Bereiche Transparenz, Datenschutz, Nichtdiskriminierung und Aufsicht umfassen.
Der Bundesrat wird im Rahmen seiner Arbeiten ein besonderes Augenmerk auf die Herausforderungen in Bezug auf Diskriminierung legen. Wie er dies tun wird, lässt sich zum aktuellen Zeitpunkt jedoch noch nicht genau sagen.