- Besoin urgent de capacités transparentes soutenues par l’État pour identifier et corriger objectivement la désinformation dans les médias sociaux.
- Il convient de définir le cadre juridique, la protection des données et les limites constitutionnelles, ainsi que des tâches claires, l’admissibilité et les exclusions.
- Des mécanismes de transparence, de responsabilité et de contrôle ainsi qu’une collaboration avec les vérificateurs de faits, les médias et les plateformes sont obligatoires.
Interpellation Flach (25.4133) : La cyberlégion pour la démocratie
Texte soumis
La diffusion de fausses informations et la manipulation des débats publics par des bots et des campagnes de désinformation coordonnées représentent un danger croissant pour la formation démocratique de l’opinion, la sécurité publique et la confiance dans les institutions étatiques. D’autres États européens misent déjà sur des mesures étatiques renforcées pour contrer de telles offensives d’information : la Pologne a considérablement développé ses capacités de cyberdéfense et de défense de l’information après plusieurs incidents graves et a intensifié les initiatives de l’État et de la société civile pour identifier et démasquer les fake news ; les services de l’État et les agences de presse travaillent sur des programmes d’identification et de contre-mesure de la désinformation. L’Estonie et d’autres États suivent des modèles complémentaires qui combinent les capacités de l’État, des unités de cyberdéfense volontaires et la coopération avec des vérificateurs de faits de la société civile. De tels modèles combinent la détection technique (analyse de bots, métriques de réseau) avec des contre-messages rapides et factuels et des mesures de transparence.
Dans ce contexte, je demande au Conseil fédéral de me renseigner sur les possibilités, de mettre en place en Suisse une “cyberlégion” coordonnée et juridiquement liée – entendue comme une unité soutenue par l’État et gérée de manière transparente pour identifier et corriger objectivement les faux et les narratifs de bots dans les médias sociaux.
- Sur quelle base juridique une telle unité pourrait-elle fonctionner ? Quelles seraient les limites (constitution, protection des données) à respecter ?
- Comment le Conseil fédéral pourrait-il définir le but, les tâches et les limites ? Quelles mesures seraient autorisées, lesquelles seraient exclues ?
- Comment la coopération avec les organismes de vérification des faits, les médias, les instituts de recherche et les plateformes pourrait-elle être organisée afin que la contre-information gouvernementale n’apparaisse pas comme de la censure ?
- Quels mécanismes pourraient garantir la transparence, la responsabilité et le contrôle (par exemple, registres, rapports, conseil consultatif) ?
- Quels moyens techniques (reconnaissance des bots, NLP, etc.) pourraient être utilisés et comment minimiser les erreurs ainsi que les interventions dans les communications légitimes ?
- La Confédération pourrait-elle conclure des accords avec des plates-formes ou se limiter à des recommandations et à des directives ?
- Des adaptations légales pourraient-elles être nécessaires pour sanctionner plus efficacement les réseaux de zombies ?