Ven­te à emporter (AI)
  • Le Con­seil fédé­ral encou­ra­ge la régle­men­ta­ti­on sec­to­ri­el­le, l’au­to­ré­gu­la­ti­on et les pro­jets de con­sul­ta­ti­on pour la trans­pa­rence et l’en­cad­re­ment juri­di­que de l’uti­li­sa­ti­on de l’IA dans le journalisme.
  • La lut­te cont­re la dés­in­for­ma­ti­on néces­si­te une appro­che glo­ba­le : édu­ca­ti­on aux médi­as, recher­che, coopé­ra­ti­on inter­na­tio­na­le et régu­la­ti­on des gran­des plateformes.

Inter­pel­la­ti­on Rumy (25.3180) : Uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le dans le journalisme

Tex­te soumis

Le Con­seil fédé­ral est aima­blem­ent prié de répond­re aux que­sti­ons suivantes :

  1. Com­ment le Con­seil fédé­ral s’assu­re-t-il que les con­te­nus jour­na­li­sti­ques géné­rés par l’IA soi­ent iden­ti­fi­és com­me tels de maniè­re transparente ?
  2. Quel­les mesu­res le Con­seil fédé­ral pré­voit-il pour empêcher la dif­fu­si­on de fausses nou­vel­les géné­rées par l’IA ?
  3. Exi­ste-t-il des réfle­xi­ons sur une régle­men­ta­ti­on de l’uti­li­sa­ti­on de l’IA dans les réd­ac­tions jour­na­li­sti­ques, notam­ment en ce qui con­cer­ne le devoir de dili­gence journalistique ?
  4. Quel­les sont les stra­té­gies du Con­seil fédé­ral pour garan­tir l’in­dé­pen­dance et la diver­si­té des médi­as face à l’au­to­ma­tisa­ti­on croissante ?
  5. Com­ment s’assurer que l’IA n’en­traî­ne pas l’é­vic­tion de la main-d’œu­vre jour­na­li­stique, mais qu’el­le la sou­ti­en­ne plutôt ?
  6. Le Con­seil fédé­ral pré­voit-il de déve­lo­p­per des nor­mes éthi­ques dans le jour­na­lis­me basé sur l’IA en col­la­bo­ra­ti­on avec le sec­teur des médias ?

Justi­fi­ca­ti­on

L’uti­li­sa­ti­on crois­s­an­te de l’in­tel­li­gence arti­fi­ci­el­le (IA) dans le jour­na­lis­me soulè­ve des que­sti­ons cen­tra­les sur la qua­li­té des médi­as, la trans­pa­rence, l’é­thi­que et la démo­cra­tie. Les systè­mes basés sur l’IA peu­vent géné­rer des artic­les de maniè­re auto­ma­ti­sée, per­son­na­li­ser les con­te­nus et dif­fu­ser des fake news de maniè­re plus effi­cace. En même temps, ils offrent un poten­tiel d’a­mé­lio­ra­ti­on de l’ef­fi­ca­ci­té et de nou­vel­les pos­si­bi­li­tés jour­na­li­sti­ques. Des lignes direc­tri­ces clai­res sont tou­te­fois néces­saires pour garan­tir l’in­dé­pen­dance et la cré­di­bi­li­té du jour­na­lis­me et empêcher la dif­fu­si­on incon­trôlée de fausses informations.

Avis du Con­seil fédé­ral du 21.5.25

Con­cer­nant les que­sti­ons 1, 3 et 6

L’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA) con­fron­te les médi­as jour­na­li­sti­ques à Défis à rele­ver à tous les niveaux de la chaî­ne de valeur, tout en offrant Oppor­tu­ni­tés com­me par exemp­le des gains d’ef­fi­ca­ci­té. Les médi­as sui­s­ses uti­li­sent déjà l’IA de diver­ses maniè­res. Par­al­lè­le­ment, le sec­teur réa­git avec Mesu­res d’au­to­ré­gu­la­ti­on. Par exemp­le, le Con­seil sui­s­se de la pres­se a adop­té en 2024 le gui­de “L’IA dans le jour­na­lis­me”, qui stipu­le ent­re aut­res une obli­ga­ti­on d’i­den­ti­fi­ca­ti­on (www.presserat.ch > Code des jour­na­li­stes > Intel­li­gence arti­fi­ci­el­le). Plu­sieurs ent­re­pri­ses de médi­as ont éga­le­ment édic­té des lignes direc­tri­ces inter­nes. Le 12 février 2025, le Con­seil fédé­ral a char­gé le DFJP, en col­la­bo­ra­ti­on avec le DETEC et le DFAE, d’é­la­bo­rer une Pro­jet de con­sul­ta­ti­on sur la régle­men­ta­ti­on de l’IA de prépa­rer les pro­jets. Lorsque des adap­t­ati­ons de la loi sont néces­saires, elles doi­vent être aus­si sec­to­ri­el­les que pos­si­ble. Une régle­men­ta­ti­on géné­ra­le, trans­sec­to­ri­el­le, se limi­te à des domain­es cen­traux et per­tin­ents pour les droits fon­da­men­taux, com­me par exemp­le la pro­tec­tion des don­nées. S’y ajou­tent des mesu­res non con­traignan­tes sur le plan juri­di­que, par exemp­le des accords d’au­to­dé­cla­ra­ti­on ou des solu­ti­ons sec­to­ri­el­les. La que­sti­on de savoir s’il doit y avoir des mesu­res géné­ra­les con­traignan­tes en matiè­re de trans­pa­rence est exami­née dans le cad­re de ces travaux, qui n’en sont qu’à leurs débuts.

Con­cer­nant la que­sti­on 2

Le rap­port “Acti­vi­tés d’in­fluence et dés­in­for­ma­ti­on” (www.admin.ch > docu­men­ta­ti­on > com­mu­ni­qués de pres­se) souli­gne qu’u­ne une appro­che glo­ba­le pour lut­ter effi­ca­ce­ment cont­re les acti­vi­tés d’in­fluence et la dés­in­for­ma­ti­on de l’É­tat et de la socié­té. Le rap­port men­ti­on­ne des mesu­res dans les domain­es de la sen­si­bi­li­sa­ti­on, de la for­ma­ti­on et des com­pé­ten­ces média­ti­ques afin de ren­forcer la rési­li­ence de la socié­té. En out­re, le Con­seil fédé­ral sou­ti­ent la recher­che sur l’im­pact de la dés­in­for­ma­ti­on en Sui­s­se dans le con­tex­te de la for­ma­ti­on de l’o­pi­ni­on et sou­hai­te déve­lo­p­per la coor­di­na­ti­on et les éch­an­ges au sein de l’ad­mi­ni­stra­ti­on fédé­ra­le et avec des par­ten­aires exter­nes et étran­gers. Dans le domaine inter­na­tio­nal, la Sui­s­se par­ti­ci­pe à plu­sieurs initia­ti­ves, com­me le Par­ten­ari­at pour l’in­for­ma­ti­on et la démo­cra­tie, qui s’en­ga­ge pour l’ac­cès à une infor­ma­ti­on fiable.

Le ris­que d’u­ne dif­fu­si­on mas­si­ve de fausses infor­ma­ti­ons géné­rées par l’IA est sur­tout pré­sent sur les pla­te­for­mes de com­mu­ni­ca­ti­on numé­ri­ques inter­na­tio­na­les, moins sur les médi­as jour­na­li­sti­ques nati­on­aux. Le 5 avril 2023, le Con­seil fédé­ral a dépo­sé auprès du DETEC une deman­de d’au­to­ri­sa­ti­on de mise sur le mar­ché. Deman­der l’é­la­bo­ra­ti­on d’un pro­jet de con­sul­ta­ti­on sur la régle­men­ta­ti­on des très gran­des pla­te­for­mes de com­mu­ni­ca­ti­on. Le pro­jet de con­sul­ta­ti­on a été éla­bo­ré. Le Con­seil fédé­ral s’est déjà pen­ché à plu­sieurs repri­ses sur le sujet et va prend­re une décis­i­on à une date ulté­ri­eu­re de tomber.

Con­cer­nant les que­sti­ons 4 et 5

Le Con­seil fédé­ral con­sidè­re que des médi­as indé­pen­dants et diver­si­fi­és sont essen­tiels à la for­ma­ti­on de l’o­pi­ni­on publi­que. Dans le cad­re de ses com­pé­ten­ces, il s’en­ga­ge en faveur de bon­nes con­di­ti­ons-cad­res, par exemp­le pour la SSR, les dif­fu­seurs pri­vés de radio et de télé­vi­si­on avec quo­te-part de la rede­van­ce, mais aus­si pour le ren­force­ment des mesu­res géné­ra­les pour tous les médi­as élec­tro­ni­ques, com­me la for­ma­ti­on et le per­fec­tion­ne­ment jour­na­li­sti­ques, les agen­ces de pres­se et les orga­nis­mes d’au­to­ré­gu­la­ti­on dans le domaine du jour­na­lis­me. L’in­tel­li­gence arti­fi­ci­el­le fait par­tie de la for­ma­ti­on jour­na­li­stique, tel­le qu’el­le est dis­pen­sée dans dif­fér­ents cours du “MAZ – Insti­tut de jour­na­lis­me et de com­mu­ni­ca­ti­on”. Pour la radio et la télé­vi­si­on, les man­dats de pre­sta­ti­ons con­ve­nus dans le cad­re de la con­ce­s­si­on s’ap­pli­quent, y com­pris les mesu­res défi­nies pour la for­ma­ti­on et le per­fec­tion­ne­ment. En out­re, l’uti­li­sa­ti­on et la gesti­on de l’IA dans le domaine du jour­na­lis­me relè­vent de la responsa­bi­li­té des ent­re­pri­ses de médias.