Ven­te à emporter (AI)
  • Beso­in urgent de capa­ci­tés trans­pa­ren­tes sou­te­nues par l’É­tat pour iden­ti­fier et cor­ri­ger objec­ti­ve­ment la dés­in­for­ma­ti­on dans les médi­as sociaux.
  • Il con­vi­ent de défi­nir le cad­re juri­di­que, la pro­tec­tion des don­nées et les limi­tes con­sti­tu­ti­on­nel­les, ain­si que des tâches clai­res, l’ad­mis­si­bi­li­té et les exclusions.
  • Des méca­nis­mes de trans­pa­rence, de responsa­bi­li­té et de con­trô­le ain­si qu’u­ne col­la­bo­ra­ti­on avec les véri­fi­ca­teurs de faits, les médi­as et les pla­te­for­mes sont obligatoires.

Inter­pel­la­ti­on Flach (25.4133) : La cyber­lé­gion pour la démocratie

Tex­te soumis

La dif­fu­si­on de fausses infor­ma­ti­ons et la mani­pu­la­ti­on des débats publics par des bots et des cam­pa­gnes de dés­in­for­ma­ti­on coor­don­nées repré­sen­tent un dan­ger crois­sant pour la for­ma­ti­on démo­cra­tique de l’o­pi­ni­on, la sécu­ri­té publi­que et la con­fi­ance dans les insti­tu­ti­ons éta­ti­ques. D’aut­res États euro­pé­ens misent déjà sur des mesu­res éta­ti­ques ren­for­cées pour con­trer de tel­les offen­si­ves d’in­for­ma­ti­on : la Polo­gne a con­sidé­ra­blem­ent déve­lo­p­pé ses capa­ci­tés de cyber­dé­fen­se et de défen­se de l’in­for­ma­ti­on après plu­sieurs inci­dents gra­ves et a inten­si­fié les initia­ti­ves de l’É­tat et de la socié­té civi­le pour iden­ti­fier et démas­quer les fake news ; les ser­vices de l’É­tat et les agen­ces de pres­se tra­vail­lent sur des pro­gram­mes d’i­den­ti­fi­ca­ti­on et de cont­re-mesu­re de la dés­in­for­ma­ti­on. L’E­s­to­nie et d’aut­res États sui­vent des modè­les com­plé­men­tai­res qui com­bi­nent les capa­ci­tés de l’É­tat, des unités de cyber­dé­fen­se volon­tai­res et la coopé­ra­ti­on avec des véri­fi­ca­teurs de faits de la socié­té civi­le. De tels modè­les com­bi­nent la détec­tion tech­ni­que (ana­ly­se de bots, métri­ques de réseau) avec des cont­re-mes­sa­ges rapi­des et fac­tuels et des mesu­res de transparence.

Dans ce con­tex­te, je deman­de au Con­seil fédé­ral de me rens­eig­ner sur les pos­si­bi­li­tés, de mett­re en place en Sui­s­se une “cyber­lé­gion” coor­don­née et juri­di­quement liée – enten­due com­me une unité sou­te­nue par l’É­tat et gérée de maniè­re trans­pa­ren­te pour iden­ti­fier et cor­ri­ger objec­ti­ve­ment les faux et les nar­ra­tifs de bots dans les médi­as soci­aux.

  1. Sur quel­le base juri­di­que une tel­le unité pour­rait-elle fonc­tion­ner ? Quel­les serai­ent les limi­tes (con­sti­tu­ti­on, pro­tec­tion des don­nées) à respecter ?
  2. Com­ment le Con­seil fédé­ral pour­rait-il défi­nir le but, les tâches et les limi­tes ? Quel­les mesu­res serai­ent auto­ri­sées, les­quel­les serai­ent exclues ?
  3. Com­ment la coopé­ra­ti­on avec les orga­nis­mes de véri­fi­ca­ti­on des faits, les médi­as, les insti­tuts de recher­che et les pla­te­for­mes pour­rait-elle être orga­ni­sée afin que la cont­re-infor­ma­ti­on gou­ver­ne­men­ta­le n’ap­pa­raisse pas com­me de la censure ?
  4. Quels méca­nis­mes pour­rai­ent garan­tir la trans­pa­rence, la responsa­bi­li­té et le con­trô­le (par exemp­le, regi­stres, rap­ports, con­seil consultatif) ?
  5. Quels moy­ens tech­ni­ques (recon­nais­sance des bots, NLP, etc.) pour­rai­ent être uti­li­sés et com­ment mini­mi­ser les err­eurs ain­si que les inter­ven­ti­ons dans les com­mu­ni­ca­ti­ons légitimes ?
  6. La Con­fé­dé­ra­ti­on pour­rait-elle con­clu­re des accords avec des pla­tes-for­mes ou se limi­ter à des recom­man­da­ti­ons et à des directives ?
  7. Des adap­t­ati­ons léga­les pour­rai­ent-elles être néces­saires pour sanc­tion­ner plus effi­ca­ce­ment les réseaux de zombies ?