Takea­ways (AI):
  • Der Ein­satz von algo­rith­mi­schen Syste­men kann zu Dis­kri­mi­nie­run­gen füh­ren und bestehen­de struk­tu­rel­le Muster verstärken.
  • Der recht­li­che Dis­kri­mi­nie­rungs­schutz in der Schweiz weist Lücken auf, ins­be­son­de­re bei pri­va­ten Akteuren.
  • Der Bun­des­rat plant bis Ende 2024, die Hand­lungs­be­dar­fe im Bereich algo­rith­mi­sche Syste­me und Dis­kri­mi­nie­rungs­schutz zu prüfen.

Inter­pel­la­ti­on Mar­ti (23.4133): Algo­rith­mi­sche Dis­kri­mi­nie­rung. Ist der gesetz­li­che Dis­kri­mi­nie­rungs­schutz ausreichend?

Ein­ge­reich­ter Text

Algo­rith­mi­sches Syste­me und auto­ma­ti­sier­te Ent­schei­dun­gen wer­den immer häu­fi­ger und wer­den bei­spiels­wei­se bei Stel­len­be­wer­bun­gen, medi­zi­ni­scher Dia­gno­stik, prä­ven­ti­ver Poli­zei­ar­beit oder Risi­ko­kal­ku­la­tio­nen ein­ge­setzt. Der Ein­satz die­ser Syste­me kann zu Dis­kri­mi­nie­run­gen füh­ren oder Dis­kri­mi­nie­run­gen ver­stär­ken, das haben ver­schie­de­ne Bei­spie­le in der Ver­gan­gen­heit bereits gezeigt. Dies unter ande­rem des­halb, weil algo­rith­mi­sche Syste­me nicht neu­tral sind, son­dern durch ihr Modell, die zugrun­de­lie­gen­den Daten, durch die Art und Wei­se der Anwen­dung oder durch Rück­kop­pe­lungs­schlau­fen bestehen­de struk­tu­rel­le Muster bestä­ti­gen oder gar ver­stär­ken kön­nen. Die Dis­kri­mi­nie­rung durch Algo­rith­men kann eine gro­sse Anzahl von Men­schen betref­fen, die oft nicht wis­sen, dass sie davon betrof­fen sind. Gleich­zei­tig hat der recht­li­che Dis­kri­mi­nie­rungs­schutz in der Schweiz auch unab­hän­gig von der Fra­ge der algo­rith­mi­schen Dis­kri­mi­nie­rung gewis­se Lücken, wie der Bun­des­rat im Bericht in Erfül­lung des Postu­lats Naef (12.3543) aus­ge­führt hat, ins­be­son­de­re wenn es sich um pri­va­te und nicht staat­li­che Akteu­re han­delt. In die­sem Zusam­men­hang bit­te ich den Bun­des­rat um die Beant­wor­tung fol­gen­der Fragen:

1. Teilt der Bun­des­rat die Sor­ge, dass der Ein­satz von algo­rith­mi­schen Syste­men zu Dis­kri­mi­nie­run­gen füh­ren kann?
2. Mit wel­chen Mass­nah­men ist vor­ge­se­hen, die­se Dis­kri­mi­nie­run­gen anzugehen?
3. Plant der Bun­des­rat eine evi­denz­ba­sier­te Fol­ge­ab­schät­zung für den Ein­satz von algo­rith­mi­schen Syste­men in der Ver­wal­tung, die unter ande­rem auch zum Ziel haben soll, Aus­wir­kun­gen auf die Grund­rech­te abzuschätzen?
4. Wie kann gewähr­lei­stet wer­den, dass Betrof­fe­ne ihre Rech­te wahr­neh­men kön­nen, wenn sie von algo­rith­mi­scher Dis­kri­mi­nie­rung betrof­fen sind – und auch dann, wenn es sich um eine syste­ma­ti­sche, struk­tu­rel­le Dis­kri­mi­nie­rung handelt?
5. Wel­che Hand­ha­be gibt es gesetz­lich gegen Dis­kri­mi­nie­run­gen für Pri­va­te?
6. Ist geplant, den gesetz­li­chen Schutz gegen Dis­kri­mi­nie­rung zu verstärken?
7. Wie stellt sich der Bun­des­rat zur Idee, einen all­ge­mei­nen Rechts­rah­men für einen ver­stärk­ten Dis­kri­mi­nie­rungs­schutz zu schaf­fen, unter ande­rem (aber nicht aus­schliess­lich) zum Schutz vor algo­rith­mi­scher Diskriminierung?

Stel­lung­nah­me des Bun­des­rats vom 15.11.2023

1. Der Bun­des­rat ist sich bewusst, dass bestehen­de Dis­kri­mi­nie­run­gen in der Gesell­schaft durch den Ein­satz von algo­rith­mi­schen Syste­men syste­ma­tisch repro­du­ziert und sogar ver­stärkt wer­den kön­nen. Es ist auch nicht aus­zu­schlie­ssen, dass neue Risi­ken ent­ste­hen. Die­se Risi­ken wer­den im Bericht “Her­aus­for­de­run­gen der künst­li­chen Intel­li­genz” von 2019 doku­men­tiert (www.admin.ch > Doku­men­ta­ti­on > Medi­en­mit­tei­lun­gen > Künst­li­che Intel­li­genz: Schweiz befin­det sich in guter Aus­gangs­la­ge). Auch der Bun­des­rat hat sich in sei­ner Ant­wort auf die Fra­ge Bal­tha­sar Glätt­li 23.7270 “Syste­me mit gene­ra­ti­ver künst­li­cher Intel­li­genz repro­du­zie­ren Dis­kri­mi­nie­run­gen: Braucht es ein Anti­dis­kri­mi­nie­rungs­ge­setz zur Umset­zung von BV Art. 8, Abs. 2?” bereits zu die­sem The­ma geäu­ssert. Das Risi­ko der Dis­kri­mi­nie­rung ist eine der gröss­ten Her­aus­for­de­run­gen im Bereich der künst­li­chen Intel­li­genz (KI). Gleich­zei­tig könn­te KI, wenn sie gut kon­zi­piert, trai­niert und regel­mä­ssig über­prüft wird, auch zur Erken­nung oder Ver­hin­de­rung von Dis­kri­mi­nie­rung ein­ge­setzt werden.

2./6. Der Bericht “Her­aus­for­de­run­gen der künst­li­chen Intel­li­genz” zeigt, dass die Gefahr der Dis­kri­mi­nie­rung durch algo­rith­mi­sche Syste­me bis zu einem gewis­sen Grad durch das bestehen­de Recht abge­deckt wird. So wür­de das Bun­des­ge­setz über die Gleich­stel­lung von Frau und Mann (SR 151.1), das Dis­kri­mi­nie­run­gen auf­grund des Geschlechts bei der Anstel­lung und in pri­vat­recht­li­chen und öffent­lich-recht­li­chen Arbeits­ver­hält­nis­sen ver­bie­tet, bei einem Rekru­tie­rungs­pro­zess ange­wen­det, der auf einem algo­rith­mi­schen System beruht. Der Bun­des­rat hat im Jahr 2020 KI-Leit­li­ni­en für den Bund ver­ab­schie­det (www.admin.ch > Doku­men­ta­ti­on > Medi­en­mit­tei­lun­gen > Leit­li­ni­en “Künst­li­che Intel­li­genz” für die Bun­des­ver­wal­tung ver­ab­schie­det). Die­se beto­nen die Not­wen­dig­keit, Per­so­nen oder Per­so­nen­grup­pen vor Dis­kri­mi­nie­rung und Stig­ma­ti­sie­rung zu schüt­zen. Dazu müs­sen ange­mes­se­ne tech­ni­sche und orga­ni­sa­to­ri­sche Schutz­mass­nah­men und Kon­trol­len vor­ge­se­hen, aus­ge­wo­ge­ne und qua­li­ta­tiv hoch­wer­ti­ge Daten ver­wen­det oder ent­spre­chen­de flan­kie­ren­de Schutz­mass­nah­men getrof­fen wer­den. Wie in sei­ner Stel­lung­nah­me zum Postu­lat 23.3201 Dobler “Rechts­la­ge der künst­li­chen Intel­li­genz. Unsi­cher­hei­ten klä­ren, Inno­va­ti­on för­dern!” fest­ge­hal­ten, wird der Bun­des­rat bis Ende 2024 auf­zei­gen, ob im Bereich von KI Hand­lungs­be­darf besteht. In die­sem Zusam­men­hang wird er prü­fen, inwie­weit die bestehen­den gesetz­li­chen Bestim­mun­gen einen aus­rei­chen­den Schutz vor Dis­kri­mi­nie­rung bie­ten und dabei den beson­de­ren Risi­ken algo­rith­mi­scher Syste­me Rech­nung tra­gen. Er beob­ach­tet dabei auch die Arbei­ten des Aus­schus­ses für künst­li­che Intel­li­genz des Euro­pa­rats sowie die Arbei­ten der Euro­päi­schen Uni­on zum “AI Act”.

3. Das Bun­des­ge­setz über den Daten­schutz (DSG; SR 235.1) sieht in Art. 22 die Pflicht zur Durch­füh­rung einer Daten­schutz-Fol­gen­ab­schät­zung vor, wenn eine Bear­bei­tung ein hohes Risi­ko für die Per­sön­lich­keit oder die Grund­rech­te der betrof­fe­nen Per­son mit sich brin­gen kann. Die Bear­bei­tung per­so­nen­be­zo­ge­ner Daten mit­hil­fe von Algo­rith­men kann je nach Fall eine sol­che Fol­gen­ab­schät­zung erfor­der­lich machen. Der Bun­des­rat wird im Rah­men der oben erwähn­ten Aus­le­ge­ord­nung, die er bis Ende 2024 prä­sen­tie­ren wird, klä­ren, ob eine Pflicht zur Fol­gen­ab­schät­zung für algo­rith­mi­sche Syste­me, die sich auf alle Grund­rech­te bezieht, erfor­der­lich ist. Dabei wird er sich ins­be­son­de­re auf die bereits erwähn­ten Arbei­ten des Euro­pa­rats beziehen.

4./5. Die recht­li­chen Mit­tel, die Dis­kri­mi­nie­rungs­op­fern zur Ver­fü­gung ste­hen, vari­ie­ren je nach Art der Dis­kri­mi­nie­rung und je nach­dem, ob die Dis­kri­mi­nie­rung von den Behör­den oder von Pri­va­ten aus­geht. Eine detail­lier­te Ana­ly­se zu die­sem The­ma wur­de vom Schwei­ze­ri­schen Kom­pe­tenz­zen­trum für Men­schen­rech­te (SKMR) im Jahr 2015 durch­ge­führt (Stu­die “Zugang zur Justiz in Dis­kri­mi­nie­rungs­fäl­len”, www.skmr.ch > Publi­ka­tio­nen & Pro­jek­te > Stu­di­en & Gut­ach­ten > Zugang zur Justiz in Dis­kri­mi­nie­rungs­fäl­len, letz­te Aktua­li­sie­rung 2022). Der Schutz, den die gesetz­li­chen Bestim­mun­gen zur Dis­kri­mi­nie­rung bie­ten, unter­schei­det nicht danach, ob die Dis­kri­mi­nie­rung durch den Ein­satz algo­rith­mi­scher Syste­me ver­ur­sacht wird oder nicht. Das DSG sieht jedoch das Recht der betrof­fe­nen Per­son vor, ihren Stand­punkt dar­zu­le­gen, wenn sie Gegen­stand einer auto­ma­ti­sier­ten Ein­zel­ent­schei­dung im Sin­ne von Art. 21 Abs. 1 DSG ist, sowie das Recht zu ver­lan­gen, dass die­se Ent­schei­dung von einer natür­li­chen Per­son über­prüft wird (Art. 21 Abs. 2 DSG).

7. In sei­nem Bericht von 2016 in Beant­wor­tung des Postu­lats Naef 12.3543 “Bericht zum Recht auf Schutz vor Dis­kri­mi­nie­rung” äusser­te der Bun­des­rat Vor­be­hal­te gegen­über dem Vor­schlag, den Schutz vor Dis­kri­mi­nie­rung durch eine Ergän­zung der Art. 27 ff. des Zivil­ge­setz­bu­ches (SR 210) zu ver­stär­ken. Er beton­te, dass eine sol­che Mass­nah­me einem all­ge­mei­nen Dis­kri­mi­nie­rungs­ge­setz gleich­kä­me, das vom Par­la­ment stets abge­lehnt wor­den sei. Den wei­te­ren Arbei­ten im Zusam­men­hang mit KI zu Mass­nah­men zur Stär­kung des gesetz­li­chen Rah­mens in die­sem Bereich will der Bun­des­rat heu­te nicht vorgreifen.

AI-generierte Takeaways können falsch sein.