Inter­pel­la­ti­on Ars­lan (25.3066): Gen­der­ba­sier­te Dis­kri­mi­nie­rung durch Algo­rith­men und KI. Schutz vor algo­rith­mi­scher Dis­kri­mi­nie­rung im pri­va­ten Sektor

Ein­ge­reich­ter Text

Der Ein­satz von Künst­li­cher Intel­li­genz (KI) kann bestehen­de gesell­schaft­li­che Ungleich­hei­ten ver­stär­ken. Inter­na­tio­na­le Bei­spie­le zei­gen, dass KI-gestütz­te Ent­schei­dun­gen sozi­al und wirt­schaft­lich benach­tei­lig­te Grup­pen hart tref­fen kön­nen. Auch in der Schweiz beein­flus­sen Algo­rith­men zuneh­mend wich­ti­ge Lebens­be­rei­che: Sie bewer­ten Bewer­bun­gen, ana­ly­sie­ren Kre­dit­wür­dig­keit und emp­feh­len Inhal­te auf Social Media. Stu­di­en bele­gen, dass Men­schen durch algo­rith­mi­sche Dis­kri­mi­nie­rung benach­tei­ligt wer­den kön­nen. KI-Syste­me kön­nen zum Bei­spiel im Recrui­ting-Pro­zess Män­ner bevor­zu­gen, und Frau­en kön­nen schlech­te­re Kre­dit­kon­di­tio­nen erhal­ten, obwohl ihre finan­zi­el­le Situa­ti­on ver­gleich­bar ist. Gene­ra­ti­ve KI ver­stärkt zudem geschlechts­spe­zi­fi­sche Ste­reo­ty­pe.

KI-Syste­me wer­den oft ein­ge­setzt ohne, dass Betrof­fe­ne davon wis­sen und ope­rie­ren oft in intrans­pa­ren­ten „Black Boxes“, wodurch Betrof­fe­ne Benach­tei­li­gun­gen schwer nach­voll­zie­hen kön­nen. Rück­kopp­lungs­ef­fek­te kön­nen zudem bestehen­de Vor­ur­tei­le ver­stär­ken. In sei­nem Grund­satz­ent­scheid erkennt der Bun­des­rat den Regu­lie­rungs­be­darf an und beab­sich­tigt, die KI-Kon­ven­ti­on des Euro­pa­rats zu rati­fi­zie­ren. Die­se fokus­siert jedoch auf staat­li­che Akteu­re und lässt Risi­ken im pri­va­ten Sek­tor unbe­ach­tet. Ohne kla­re gesetz­li­che Anpas­sun­gen besteht ein Schutz­va­ku­um, da in der Schweiz kein all­ge­mei­nes Anti­dis­kri­mi­nie­rungs­ge­setz für pri­va­te Akteu­re exi­stiert. Die Her­aus­for­de­run­gen algo­rith­mi­scher Dis­kri­mi­nie­rung wie Ska­lie­rungs­ef­fek­te oder Ver­zer­run­gen in Trai­nings­da­ten erfor­dern geziel­te Massnahmen.

1. Wie will der Bun­des­rat die­se Schwä­chen angehen?

2. Die KI-Kon­ven­ti­on des Euro­pa­ra­tes bezieht sich pri­mär auf staat­li­che Akteu­re. Wie will der BR die Bevöl­ke­rung vor Dis­kri­mi­nie­rung schüt­zen, wenn KI-Syste­me zuneh­mend auch von pri­va­ten Akteu­ren ein­ge­setzt werden?

3. Kon­kre­te Fäl­le zei­gen, dass unter ande­rem Frau­en beim Ein­satz von KI-Syste­men dis­kri­mi­nie­ren­de Fol­gen erlei­den kön­nen, etwa im Recrui­ting, bei der Prü­fung von Kre­dit­wür­dig­keit, durch gene­ra­ti­ve KI oder Social Media. Wie kann der BR sei­ne Schutz­pflicht vor Dis­kri­mi­nie­rung in sol­chen Fäl­len im pri­va­ten Sek­tor erfüllen?

4. Wie gedenkt der BR sicher­zu­stel­len, dass KI-gestütz­te Recrui­ting-Syste­me Chan­cen­gleich­heit gewähr­lei­sten und nicht syste­ma­tisch Bewer­bun­gen von Frau­en oder ande­ren dis­kri­mi­nier­ten Grup­pen benachteiligen?

Stel­lung­nah­me des Bun­des­rats vom 14.5.2025

Der Bun­des­rat beant­wor­tet die gestell­ten Fra­gen in ihrer Gesamt­heit. Er ist sich bewusst, dass der zuneh­men­de Ein­satz von Syste­men künst­li­cher Intel­li­genz mit gewis­sen Risi­ken ver­bun­den ist, die nament­lich das Recht auf Gleich­be­hand­lung und Nicht­dis­kri­mi­nie­rung betref­fen, auch im pri­va­ten Sek­tor (sie­he ins­be­son­de­re die Stel­lung­nah­me auf die Inter­pel­la­ti­on Mar­ti Min Li 23.4133 Algo­rith­mi­sche Dis­kri­mi­nie­rung. Ist der gesetz­li­che Dis­kri­mi­nie­rungs­schutz ausreichend?).

Die Kon­zep­ti­on der KI muss das Risi­ko einer Ver­stär­kung und Syste­ma­ti­sie­rung von Dis­kri­mi­nie­run­gen ins­be­son­de­re gegen­über Frau­en und Min­der­hei­ten berück­sich­ti­gen. Denn Algo­rith­men wer­den anhand von Daten trai­niert, wel­che die Vor­ur­tei­le der Gesell­schaft wider­spie­geln und dazu nei­gen, die­se zu repro­du­zie­ren. Die Ent­ste­hung von Ver­zer­run­gen und deren Aus­wir­kun­gen sind äusserst kom­plex, wes­halb dem gesam­ten KI-Lebens­zy­klus beson­de­re Auf­merk­sam­keit zu wid­men ist. Ande­rer­seits könn­te KI bei­spiels­wei­se auch die Erken­nung von Selek­ti­ons­ver­zer­run­gen im Recrui­ting-Pro­zess erleichtern.

Das Über­ein­kom­men des Euro­pa­ra­tes über künst­li­che Intel­li­genz und Men­schen­rech­te, Demo­kra­tie und Rechts­staat­lich­keit gilt für den öffent­li­chen und den pri­va­ten Sek­tor. Im pri­va­ten Sek­tor ver­fü­gen die Staa­ten jedoch über mehr Hand­lungs­spiel­raum in Bezug auf den Umfang und die Inten­si­tät der Mass­nah­men, die zur Errei­chung der Zie­le des Über­ein­kom­mens zu ergrei­fen sind. Der Bun­des­rat hat die­sen Spiel­raum genutzt und sich in sei­nem Beschluss vom 12. Febru­ar 2025 (sie­he die Medi­en­mit­tei­lung dazu: https://www.bj.admin.ch/bj/de/home/aktuell/mm.msg-id-104110.html) für eine Gesetz­ge­bung aus­ge­spro­chen, die haupt­säch­lich auf den öffent­li­chen Sek­tor aus­ge­rich­tet ist, aber auch den pri­va­ten Sek­tor ein­schlie­ssen kann, wenn es um die Grund­rech­te des Ein­zel­nen geht. Das Recht­set­zungs­pro­jekt, wel­ches das EJPD im Auf­trag des Bun­des­ra­tes bis 2026 aus­ar­bei­ten wird, soll daher nament­lich die Berei­che Trans­pa­renz, Daten­schutz, Nicht­dis­kri­mi­nie­rung und Auf­sicht umfassen.

Der Bun­des­rat wird im Rah­men sei­ner Arbei­ten ein beson­de­res Augen­merk auf die Her­aus­for­de­run­gen in Bezug auf Dis­kri­mi­nie­rung legen. Wie er dies tun wird, lässt sich zum aktu­el­len Zeit­punkt jedoch noch nicht genau sagen.