Take-Aways (AI)
  • Drin­gen­de Not­wen­dig­keit staat­lich gestütz­ter, trans­pa­ren­ter Kapa­zi­tä­ten zur Erken­nung und sach­li­chen Kor­rek­tur von Des­in­for­ma­ti­on in sozia­len Medien.
  • Rechts­rah­men, Daten­schutz und ver­fas­sungs­mä­ssi­ge Schran­ken sowie kla­re Auf­ga­ben, Zuläs­sig­keit und Aus­schlüs­se müs­sen defi­niert werden.
  • Transparenz‑, Rechen­schafts- und Kon­troll­me­cha­nis­men sowie Zusam­men­ar­beit mit Fak­ten­prü­fern, Medi­en und Platt­for­men sind zwingend.

Inter­pel­la­ti­on Flach (25.4133): Cyber-Legi­on für die Demokratie

Ein­ge­reich­ter Text

Die Ver­brei­tung von Falsch­in­for­ma­tio­nen und die Mani­pu­la­ti­on öffent­li­cher Debat­ten durch Bots und koor­di­nier­te Des­in­for­ma­ti­ons­kam­pa­gnen stel­len eine zuneh­men­de Gefahr für die demo­kra­ti­sche Mei­nungs­bil­dung, die öffent­li­che Sicher­heit und das Ver­trau­en in staat­li­che Insti­tu­tio­nen dar. Ande­re euro­päi­sche Staa­ten set­zen bereits auf ver­stärk­te staat­li­che Mass­nah­men zur Abwehr sol­cher Infor­ma­ti­ons­of­fen­si­ven: Polen hat sei­ne Cyber- und Infor­ma­ti­ons­ab­wehr­ka­pa­zi­tä­ten nach meh­re­ren gra­vie­ren­den Vor­fäl­len deut­lich aus­ge­baut und staat­li­che sowie zivil­ge­sell­schaft­li­che Initia­ti­ven zur Erken­nung und Ent­lar­vung von Fake-News inten­si­viert; staat­li­che Stel­len und Pres­se­agen­tu­ren arbei­ten an Pro­gram­men zur Iden­ti­fi­ka­ti­on und Gegen­steue­rung von Des­in­for­ma­ti­on. Est­land und wei­te­re Staa­ten ver­fol­gen ergän­zen­de Model­le, die staat­li­che Kapa­zi­tä­ten, frei­wil­li­ge Cyber-Ver­tei­di­gungs­ein­hei­ten und die Zusam­men­ar­beit mit zivil­ge­sell­schaft­li­chen Fak­ten­checkern ver­bin­den. Sol­che Model­le kom­bi­nie­ren tech­ni­sche Detek­ti­on (Bot-Ana­ly­se, Netz­werk­me­tri­ken) mit schnel­len, sach­li­chen Gegen­bot­schaf­ten und Transparenz-Massnahmen.

Vor die­sem Hin­ter­grund ersu­che ich den Bun­des­rat um Aus­kunft über die Mög­lich­kei­ten, in der Schweiz eine koor­di­nier­te, recht­lich gebun­de­ne «Cyber-Legi­on» — ver­stan­den als staat­lich gestütz­te, trans­pa­rent geführ­te Ein­heit zur Erken­nung und sach­li­chen Kor­rek­tur von Falsch- und Bot-Nar­ra­ti­ven in sozia­len Medi­en — auf­zu­bau­en.

  1. Auf wel­cher recht­li­chen Grund­la­ge könn­te eine sol­che Ein­heit betrie­ben wer­den? Wel­che Schran­ken (Ver­fas­sung, Daten­schutz) wären zu beachten?
  2. Wie könn­te der Bun­des­rat Zweck, Auf­ga­ben und Gren­zen defi­nie­ren? Wel­che Mass­nah­men wären zuläs­sig, wel­che ausgeschlossen?
  3. Wie könn­te die Zusam­men­ar­beit mit Fak­ten­prüf­stel­len, Medi­en, For­schungs­ein­rich­tun­gen und Platt­for­men gestal­tet wer­den, damit staat­li­che Gegen­in­for­ma­ti­on nicht als Zen­sur erscheint?
  4. Wel­che Mecha­nis­men könn­ten Trans­pa­renz, Rechen­schaft und Kon­trol­le sichern (z. B. Regi­ster, Berich­te, Beirat)?
  5. Wel­che tech­ni­schen Mit­tel (Bot-Erken­nung, NLP etc.) könn­ten ein­ge­setzt wer­den, und wie könn­ten Feh­ler sowie Ein­grif­fe in legi­ti­me Kom­mu­ni­ka­ti­on mini­miert werden?
  6. Könn­te der Bund Ver­ein­ba­run­gen mit Platt­for­men ein­ge­hen oder sich auf Emp­feh­lun­gen und Vor­ga­ben beschränken?
  7. Könn­te es gesetz­li­che Anpas­sun­gen brau­chen, um Bot-Net­ze wirk­sa­mer zu sanktionieren?