Postu­lat Béglé (16.3914): Wie bringt man Ethik in die Algorithmen?
Der Bun­des­rat bean­tragt die Ableh­nung des Postulates.

Ein­ge­reich­ter Text

Der Bun­des­rat wird beauf­tragt zu prü­fen, was von Algo­rith­men im In- und Aus­land aus ethi­scher Sicht erwar­tet oder ver­langt wer­den kann. Algo­rith­men sind intrans­pa­rent, ihre Ver­ant­wort­lich­keit unscharf, ihre Pflich­ten sind beschränkt. Wie funk­tio­nie­ren Algo­rith­men? An wen kann man sich bei Fehl­in­for­ma­tio­nen wen­den? Unter­ste­hen Algo­rith­men schwei­ze­ri­schem Recht? Der stän­dig wach­sen­de Ein­fluss der Algo­rith­men muss gesteu­ert wer­den, ohne dass dabei ihr Nut­zen geschmä­lert wird.

Begrün­dung

Dank Algo­rith­men erhal­ten wir bei unse­ren Inter­net-Recher­chen Tref­fer. Ein Algo­rith­mus ist eine Fol­ge von Anwei­sun­gen, mit denen die Infor­ma­tio­nen, die von Mil­li­ar­den von Men­schen kon­su­miert wer­den, hier­ar­chi­siert wer­den. Die zen­tra­le Fra­ge ist: Wel­che Infor­ma­ti­on erscheint zuerst auf unse­rem Bild­schirm? Die Rei­hen­fol­ge wider­spie­gelt ein Wer­te­sy­stem, ja sogar eine Weltanschauung.

Heut­zu­ta­ge ent­schei­den pri­va­te Fir­men dar­über. Die Infor­ma­tio­nen kön­nen nach vier Kri­te­ri­en hier­ar­chi­siert wer­den: Beliebt­heit (Anzahl Auf­ru­fe), Auto­ri­tät (Verweise/Hyperlinks), Repu­ta­ti­on (Anzahl Retweets/Likes), vor­aus­ge­sag­tes Ver­hal­ten anhand der im Inter­net hin­ter­las­se­nen Spu­ren. Die­se Hier­ar­chi­sie­rung birgt jedoch Risiken.

1. Algo­rith­men beein­träch­ti­gen ten­den­zi­ell den Grund­satz der Freiheit.

Um die Inter­net­nut­ze­rin­nen und ‑nut­zer zu bin­den, zei­gen sie zuerst die meist­auf­ge­ru­fe­nen Infor­ma­tio­nen an und jene, die der Nut­zer­mei­nung ent­spre­chen, wäh­rend der Rest bei­sei­te gelas­sen wird. Dadurch ent­ste­hen soge­nann­te “Fil­ter­bla­sen”. Die Bedro­hung für die Demo­kra­tie ist des­halb umso grö­sser, als dass zuneh­mend vie­le Bür­ge­rin­nen und Bür­ger Qua­li­täts­me­di­en ver­schmä­hen und sich statt­des­sen in den sozia­len Netz­wer­ken informieren.

2. Algo­rith­men ver­schär­fen die Ungleichheiten.

Algo­rith­men glo­ba­li­sie­ren den Mei­nungs­markt und geben den “Besten” über­mä­ssi­ge Sicht­bar­keit. Der Rest, ins­be­son­de­re der “Durch­schnitt”, wird dabei ger­ne ver­ges­sen: 95 Pro­zent der Inter­net­nut­ze­rin­nen und ‑nut­zer kon­su­mie­ren 0,03 Pro­zent der Inhal­te (laut dem Sozio­lo­gen Domi­ni­que Cardon).

3. Dies kann zu Dis­kri­mi­nie­rung führen.

Das Dyna­mic Pri­cing beruht auf Algo­rith­men und kann treue, eili­ge oder abhän­gi­ge Kun­den benach­tei­li­gen, indem es ihnen höhe­re Prei­se anbie­tet, und den Kun­den “ohne Poten­zi­al” attrak­ti­ve Ange­bo­te vorenthalten.

Mit grö­sse­rer Trans­pa­renz und kla­re­rer Fest­le­gung der Ver­ant­wort­lich­kei­ten könn­te die poli­ti­sche, wirt­schaft­li­che und sozia­le Macht der Algo­rith­men begrenzt werden.

Stel­lung­nah­me des Bun­des­rats vom 25. Janu­ar 2017

Such‑, Begegnungs‑, Medien‑, Bewer­tungs- und Markt­platz­platt­for­men im Netz sind zu einem nicht mehr weg­zu­den­ken­den Bestand­teil der moder­nen Lebens­welt gewor­den. Sie ver­än­dern das Leben jedes ein­zel­nen und wer­den zuneh­mend die Grund­wer­te der Gesell­schaft prä­gen. Grund­la­ge für die­se Syste­me und Platt­for­men sind Algo­rith­men, wel­che die dafür not­wen­di­ge Daten­be­ar­bei­tung ermög­li­chen. Ange­sichts die­ser Ent­wick­lung teilt der Bun­des­rat die Ein­schät­zung des Postu­lats, dass den mög­li­chen Risi­ken durch Algo­rith­men nach­ge­gan­gen wer­den muss, wenn die Chan­cen nach­hal­tig genutzt wer­den sol­len. Aller­dings dür­fen Algo­rith­men nicht iso­liert, son­dern müs­sen ganz­heit­lich im Kon­text der Daten­be­ar­bei­tung und der beab­sich­tig­ten Funk­tio­na­li­tät der Syste­me und Platt­for­men betrach­tet wer­den. Vor die­sem Hin­ter­grund hat der Bun­des­rat ver­schie­de­ne Mass­nah­men ergriffen.

  • Die in Umset­zung der Moti­on Rech­stei­ner Paul 13.3841, “Exper­ten­kom­mis­si­on zur Zukunft der Daten­be­ar­bei­tung und Daten­si­cher­heit”, ein­ge­setz­te Exper­ten­grup­pe geht dem The­ma der Algo­rith­men unter ver­schie­de­nen Gesichts­punk­ten nach. Neben spe­zi­fi­schen The­men – etwa digi­ta­le Mani­pu­la­ti­on (Big Nud­ging, Fil­ter Bubble usw.) – ver­folgt sie über­grei­fen­de The­men­kom­ple­xe. Zu die­sen gehört die Fra­ge, inwie­fern ethi­sche Grund­sät­ze im Zusam­men­spiel mit recht­li­chen Auf­la­gen den Miss­brauch in der Daten­be­ar­bei­tung im All­ge­mei­nen und bei den Algo­rith­men im Beson­de­ren ver­hin­dern könn­ten, und wel­che ethi­schen Grund­sät­ze dies sein könn­ten. Der Bericht der Exper­ten­grup­pe mit ent­spre­chen­den Emp­feh­lun­gen wird Mit­te 2018 erwartet.
  • Im Bereich der Per­so­nen­da­ten berück­sich­tigt die lau­fen­de Revi­si­on des Daten­schutz­ge­set­zes ver­schie­de­ne Kon­stel­la­tio­nen, in denen die Bear­bei­tung von Per­so­nen­da­ten durch Algo­rith­men erfolgt. So wird eine Infor­ma­ti­ons- und Anhö­rungs­pflicht der betrof­fe­nen Per­son ein­ge­führt, wenn ihr gegen­über eine Ent­schei­dung gefällt wird, die aus­schliess­lich auf einer auto­ma­ti­sier­ten Daten­be­ar­bei­tung beruht und recht­li­che Wir­kun­gen oder erheb­li­che Aus­wir­kun­gen auf die betrof­fe­ne Per­son hat. Mit dem Aus­kunfts­recht soll die betrof­fe­ne Per­son dar­über hin­aus wei­te­re Infor­ma­tio­nen über das Ergeb­nis, das Zustan­de­kom­men und die Aus­wir­kun­gen der Ent­schei­dung ein­for­dern kön­nen. Die Vor­la­ge ent­hält auch Mass­nah­men zum Pro­fil­ing, das häu­fig auf der Ver­wen­dung von Algo­rith­men beruht. Schliess­lich sol­len die Ver­ant­wort­li­chen ver­pflich­tet wer­den, eine Daten­schutz-Fol­gen­ab­schät­zung zu erstel­len, wenn die Bear­bei­tung zu einer Ver­let­zung der Per­sön­lich­keit der betrof­fe­nen Per­son oder der Grund­rech­te füh­ren könn­te. In die­sem Rah­men müs­sen auch Mass­nah­men zum Schutz der betrof­fe­nen Per­son geprüft werden.
  • For­schung und Bil­dung: Der Bun­des­rat hat 2015 das Natio­na­le For­schungs­pro­gramm zu “Big Data” (NFP 75) lan­ciert. Ende letz­ten Jah­res wur­den im Rah­men des Moduls 2 (gesell­schaft­li­che, regu­la­to­ri­sche und bil­dungs­be­zo­ge­ne Mass­nah­men) ver­schie­de­ne Pro­jek­te geneh­migt, die sich mit ethi­schen Fra­gen im Bereich der Daten­be­ar­bei­tung und “Big Data” beschäftigen.

Die auf­ge­li­ste­ten Mass­nah­men zei­gen, dass das The­ma “Algo­rith­men und Ethik im Netz” bereits in die lau­fen­den Akti­vi­tä­ten inte­griert ist. Dem Bun­des­rat erscheint eine Wei­ter­füh­rung und Stär­kung die­ser Akti­vi­tä­ten der effek­tiv­ste Weg, um das The­ma anzugehen.

AI-generierte Takeaways können falsch sein.