Ven­te à emporter (AI)
  • La Sui­s­se n’a pas de régle­men­ta­ti­on clai­re pour les pla­te­for­mes en ligne ; pro­jet de con­sul­ta­ti­on retar­dé, régle­men­ta­ti­on peu pro­ba­ble avant 2027.
  • EU-DSA (février 2024) trai­te les con­te­nus illé­gaux en ligne com­me le droit hors ligne ; iden­ti­fie 19 gran­des pla­te­for­mes pré­sen­tant des ris­ques sys­té­mi­ques, y com­pris des pré­oc­cu­pa­ti­ons liées à l’IA.
  • Exi­ger la pro­tec­tion des uti­li­sa­teurs cont­re les dark pat­terns, les abus de mar­ché et envi­sa­ger des sanc­tions cont­re les pla­te­for­mes en tant que per­son­nes morales.

Inter­pel­la­ti­on Jean Tschopp (24.3415) : Pla­te­for­mes et IA : droits des utilisateurs

Tex­te soumis

Les pla­te­for­mes en ligne occup­ent une place con­sidé­ra­ble. Leur sta­tut n’est tou­te­fois pas clair. En Sui­s­se, la situa­ti­on juri­di­que des pla­te­for­mes en ligne n’est pas réglée. En avril 2023, le Con­seil fédé­ral a char­gé le DETEC d’é­la­bo­rer un pro­jet de con­sul­ta­ti­on sur la régle­men­ta­ti­on des pla­te­for­mes de com­mu­ni­ca­ti­on. Elle était pré­vu pour mars 2024Mais elle dev­rait être sou­mi­se au Con­seil fédé­ral à l’au­t­om­ne. Il est peu pro­ba­ble qu’u­ne régle­men­ta­ti­on ent­re en vigueur avant 2027.

De son côté, l’UE est en train d’a­gir. Le règle­ment de l’UE sur un mar­ché uni­que des ser­vices numé­ri­ques (Digi­tal Ser­vices Act ; DSA) est en vigueur depuis février 2024. Selon ce tex­te, le prin­ci­pe est que ce qui est illé­gal en ligne l’est aus­si hors ligne. La Com­mis­si­on euro­pé­en­ne a iden­ti­fié 19 très gran­des pla­te­for­mes (avec plus de 45 mil­li­ons d’uti­li­sa­teurs actifs par mois dans l’UE) com­me Face­book, Insta­gram, Lin­ke­dIn, Tik­Tok, X (anci­en­ne­ment Twit­ter) et les deux très grands moteurs de recher­che en ligne Bing et Goog­le Search, qui pré­sen­tent un ris­que sys­té­mi­que et néces­si­tent des mesu­res de pro­tec­tion importan­tes. Goog­le a par exemp­le déjà inve­sti plu­sieurs mil­li­ards dans des start-ups spé­cia­li­sées dans l’in­tel­li­gence arti­fi­ci­el­le (IA). L’IA off­re cer­tes des oppor­tu­ni­tés dans l’ana­ly­se des don­nées, mais elle com­por­te éga­le­ment dif­fér­ents ris­ques pour la lib­re for­ma­ti­on de l’o­pi­ni­on, qui est cen­tra­le pour une démo­cra­tie direc­te com­me la Sui­s­se, pour la pro­tec­tion des don­nées ou pour la pré­ven­ti­on de la frau­de à l’identité.

Les uti­li­sa­teurs ont éga­le­ment beso­in d’êt­re pro­té­gés cont­re les piè­ges des dark pat­terns : ils doi­vent savoir ce qu’on leur pro­po­se, avec qui ils s’en­g­agent, qui est responsable en cas de pro­blè­me et pour­quoi on leur recom­man­de cer­ta­ins contenus.

Enfin, dans le domaine de la pro­tec­tion des don­nées, la Sui­s­se se con­cent­re sur la responsa­bi­li­té indi­vi­du­el­le, alors que l’UE inclut éga­le­ment les pla­te­for­mes (per­son­nes morales).

1) Com­ment le Con­seil fédé­ral entend-il répond­re les ris­ques sys­té­mi­ques liés à l’in­té­gra­ti­on de l’in­tel­li­gence arti­fi­ci­el­le dans les moteurs de recher­che en ligne réagir ?

2. com­ment le Con­seil fédé­ral comp­te-t-il agir pour garan­tir la liber­té de choix des uti­li­sa­teurs face à une con­cur­rence déloya­le ou à l’a­bus d’u­ne posi­ti­on domi­nan­te sur le mar­ché par des pla­te­for­mes en ligne ?

3. le Con­seil fédé­ral envi­sa­ge-t-il Sanc­tions éga­le­ment cont­re les pla­tes-for­mes (per­son­nes mora­les) impli­quées et pas seu­le­ment cont­re les indi­vi­dus qu’el­les représentent ?

Je remer­cie le Con­seil fédé­ral d’a­voir répon­du à mes questions.