datenrecht.ch

Moti­on Glätt­li (24.3796): Trans­pa­ren­te risi­ko­ba­sier­te Fol­ge­ab­schät­zun­gen bei Ein­satz von KI und Algo­rith­men durch den Bund

Moti­on Glätt­li (24.3796): Trans­pa­ren­te risi­ko­ba­sier­te Fol­ge­ab­schät­zun­gen bei Ein­satz von KI und Algo­rith­men durch den Bund

Ein­ge­reich­ter Text

Der Bun­des­rat wird beauf­tragt, die Bun­des­ver­wal­tung zu ver­pflich­ten, bei ihrer Ver­wen­dung von algo­rith­mi­schen und KI-basier­ten Syste­men eine Fol­gen­ab­schät­zung zu grund­recht­li­chen und gesell­schaft­li­chen Risi­ken durch­zu­füh­ren und deren Resul­ta­te trans­pa­rent zu machen. Die­se Pflicht soll bei allen Syste­men bestehen, die zur Ent­schei­dungs­fin­dung oder ‑unter­stüt­zung in der Bun­des­ver­wal­tung ein­ge­setzt werden.

Begrün­dung

Syste­me, die auf Künst­li­cher Intel­li­genz (KI) oder Algo­rith­men basie­ren, kön­nen Pro­gno­sen erstel­len, Emp­feh­lun­gen machen, Ent­schei­dun­gen fäl­len und Inhal­te gene­rie­ren. Auch öffent­li­che Ver­wal­tun­gen in der Schweiz testen oder ver­wen­den sol­che Syste­me ver­mehrt. Die­se Syste­me ber­gen Chan­cen für mehr Effi­zi­enz in der Ver­wal­tung, aber auch Risi­ken in Bezug auf die Grund­rech­te oder demo­kra­ti­sche und rechts­staat­li­che Prozesse.

Ins­be­son­de­re kön­nen sie dis­kri­mi­nie­ren­de Aus­wir­kun­gen auf bestimm­te Bevöl­ke­rungs­grup­pen mit sich brin­gen. In den Nie­der­lan­den gerie­ten Tau­sen­de von Fami­li­en in exi­sten­zi­el­le Not, als ein dis­kri­mi­nie­ren­der Algo­rith­mus sie fälsch­li­cher­wei­se dazu auf­for­der­te, staat­li­che Kin­der­be­treu­ungs­gel­der zurück­zu­zah­len. In Öster­reich berech­ne­te ein Algo­rith­mus die Wahr­schein­lich­keit, dass Arbeits­lo­se wie­der in den Arbeits­markt ein­ge­glie­dert wer­den. Die­ser ver­gab Minus­punk­te, wenn Arbeits­lo­se Für­sor­ge­pflicht hat­ten – aber nur dann, wenn es sich um Frau­en handelte.

Die­se Risi­ken sind abhän­gig von Kon­text, Zweck und Art und Wei­se der Anwen­dung. Dar­um müs­sen die Behör­den die­se Risi­ken syste­ma­tisch prü­fen. Eine erste Stu­fe der Risi­ko­ab­schät­zung ermög­licht dabei rasch und ohne gro­ssen Auf­wand eine Tria­ge von risi­ko­ar­men und risi­ko­rei­chen Anwen­dun­gen. Ein­zig dann, wenn sich bei die­ser Tria­ge-Stu­fe Risi­ko­si­gna­le zei­gen, ist eine umfas­sen­de­re Fol­gen­ab­schät­zung vor­zu­neh­men. Die Ergeb­nis­se die­ser Fol­gen­ab­schät­zung sind trans­pa­rent zu machen und zu die­sem Zweck in einem Ver­zeich­nis zugäng­lich zu machen.
Die Not­wen­dig­keit einer sol­chen Fol­gen­ab­schät­zung ist bereits in der KI-Kon­ven­ti­on des Euro­pa­rats fest­ge­legt. Die Schweiz wird daher einen sol­chen Mecha­nis­mus ein­füh­ren müs­sen, um das Über­ein­kom­men rati­fi­zie­ren zu kön­nen. Auch die Ver­ord­nung zum AI Act der Euro­päi­schen Uni­on sieht eine grund­recht­li­che Fol­gen­ab­schät­zung bei der Ver­wen­dung von Hoch­ri­si­ko-KI-Syste­men durch die öffent­li­che Ver­wal­tung vor, die trans­pa­rent gemacht wer­den muss.

Behörde

Gebiet

Themen

Ähnliche Beiträge

Newsletter