Ven­te à emporter (AI)
  • Les algo­rith­mes influen­cent l’ac­cès à l’in­for­ma­ti­on et la démo­cra­tie par le biais de bul­les de fil­tra­ge, d’u­ne diver­si­té limi­tée et d’u­ne con­cen­tra­ti­on de la visibilité.
  • Le Con­seil fédé­ral deman­de une régle­men­ta­ti­on glo­ba­le : révi­si­on de la pro­tec­tion des don­nées, droits à l’in­for­ma­ti­on, ana­ly­ses d’im­pact et recher­che sur la gesti­on éthi­que des algorithmes.

Postu­lat Béglé (16.3914) : Com­ment mett­re de l’é­thi­que dans les algorithmes ?
Le Con­seil fédé­ral pro­po­se de rejeter le postulat.

Tex­te soumis

Le Con­seil fédé­ral est char­gé d’ex­ami­ner ce que l’on peut attendre ou exi­ger des algo­rith­mes, en Sui­s­se et à l’étran­ger, d’un point de vue éthi­que. Les algo­rith­mes ne sont pas trans­par­ents, leur responsa­bi­li­té est floue et leurs obli­ga­ti­ons sont limi­tées. Com­ment fonc­tion­nent les algo­rith­mes ? À qui s’adress­er en cas de mau­vai­se infor­ma­ti­on ? Les algo­rith­mes sont-ils sou­mis au droit sui­s­se ? L’in­fluence sans ces­se crois­s­an­te des algo­rith­mes doit être gérée sans que leur uti­li­té ne soit diminuée.

Justi­fi­ca­ti­on

Grâ­ce aux algo­rith­mes, nous obte­nons des résul­tats lors de nos recher­ches sur Inter­net. Un algo­rith­me est une suite d’ins­truc­tions qui per­met de hié­rar­chiser les infor­ma­ti­ons con­som­mées par des mil­li­ards de per­son­nes. La que­sti­on cen­tra­le est la sui­van­te : quel­le infor­ma­ti­on appa­raît en pre­mier sur not­re écran ? L’ord­re reflè­te un système de valeurs, voi­re une visi­on du monde.

Aujour­d’hui, ce sont des ent­re­pri­ses pri­vées qui déci­dent. Les infor­ma­ti­ons peu­vent être hié­rar­chi­sées selon quat­re critères : Popu­la­ri­té (nombre de vues), auto­ri­té (références/hyperliens), répu­ta­ti­on (nombre de retweets/likes), com­porte­ment pré­dit en fonc­tion des traces lais­sées sur Inter­net. Cet­te hié­rar­chi­sa­ti­on com­por­te tou­te­fois des risques.

1. les algo­rith­mes ten­dent à por­ter att­ein­te au prin­ci­pe de liberté

Pour fidé­li­ser les inter­nau­tes, ils affi­chent d’a­bord les infor­ma­ti­ons les plus con­sul­tées et cel­les qui cor­re­spon­dent à l’o­pi­ni­on des uti­li­sa­teurs, lais­sant le reste de côté. Il en résul­te ce que l’on appel­le des “bul­les de filt­re”. La men­ace pour la démo­cra­tie est donc d’autant plus gran­de que de plus en plus de citoy­ens dédaign­ent les médi­as de qua­li­té et s’in­for­ment à la place sur les réseaux sociaux.

2. les algo­rith­mes accen­tu­ent les inégalités

Les algo­rith­mes glo­ba­li­sent le mar­ché de l’o­pi­ni­on et don­nent une visi­bi­li­té démesu­rée aux “meil­leurs”. Le reste, notam­ment la “moy­enne”, est volon­tiers oublié : 95% des inter­nau­tes con­som­ment 0,03% des con­te­nus (selon le socio­lo­gue Domi­ni­que Cardon).

3. cela peut con­dui­re à une discrimination

La tari­fi­ca­ti­on dyna­mi­que repo­se sur des algo­rith­mes et peut désa­van­ta­ger les cli­ents fidè­les, pres­sés ou dépen­dants en leur pro­po­sant des prix plus éle­vés et pri­ver les cli­ents “sans poten­tiel” d’off­res attractives.

Une plus gran­de trans­pa­rence et une défi­ni­ti­on plus clai­re des responsa­bi­li­tés per­met­trai­ent de limi­ter le pou­voir poli­tique, éco­no­mi­que et social des algorithmes.

Avis du Con­seil fédé­ral du 25 jan­vier 2017

Les pla­te­for­mes de recher­che, de ren­cont­re, de médi­as, d’éva­lua­ti­on et de mar­ché en ligne sont deve­nues des élé­ments incon­tourn­ables de la vie moder­ne. Elles modi­fi­ent la vie de cha­cun et vont de plus en plus mar­quer les valeurs fon­da­men­ta­les de la socié­té. Ces systè­mes et pla­te­for­mes repo­sent sur des algo­rith­mes qui per­met­tent le trai­te­ment des don­nées néces­saire à leur fonc­tion­ne­ment. Au vu de cet­te évo­lu­ti­on, le Con­seil fédé­ral par­ta­ge l’a­vis du postu­lat selon lequel les ris­ques poten­tiels liés aux algo­rith­mes doi­vent être exami­nés si l’on veut exploi­ter dura­blem­ent les oppor­tu­ni­tés. Tou­te­fois, les algo­rith­mes ne doi­vent pas être con­sidé­rés iso­lé­ment, mais de maniè­re glo­ba­le, dans le con­tex­te du trai­te­ment des don­nées et de la fonc­tion­na­li­té pré­vue des systè­mes et des pla­te­for­mes. C’est dans ce con­tex­te que le Con­seil fédé­ral a pris dif­fé­ren­tes mesures.

  • Les mesu­res pri­ses en appli­ca­ti­on de la moti­on Rech­stei­ner Paul 13.3841Le grou­pe d’ex­perts mis en place par la “Com­mis­si­on d’ex­perts sur l’a­ve­nir du trai­te­ment et de la sécu­ri­té des don­nées” abor­de le thè­me des algo­rith­mes sous dif­fér­ents aspects. Out­re des thè­mes spé­ci­fi­ques, tels que la mani­pu­la­ti­on numé­ri­que (Big Nud­ging, Fil­ter Bubble, etc.), il suit des thè­mes plus géné­raux. Par­mi cel­les-ci figu­re la que­sti­on de savoir dans quel­le mesu­re des prin­cipes éthi­ques, com­bi­nés à des obli­ga­ti­ons léga­les, pour­rai­ent empêcher les abus dans le trai­te­ment des don­nées en géné­ral et dans les algo­rith­mes en par­ti­cu­lier, et quels pour­rai­ent être ces prin­cipes éthi­ques. Le rap­port du grou­pe d’ex­perts et ses recom­man­da­ti­ons sont atten­dus pour la mi-2018.
  • Dans le domaine des don­nées per­son­nel­les, la révi­si­on en cours de la loi sur la pro­tec­tion des don­nées prend en comp­te dif­fér­ents cas de figu­re dans les­quels le trai­te­ment de don­nées per­son­nel­les est effec­tué par des algo­rith­mes. Ain­si, un devoir d’in­for­ma­ti­on et de con­sul­ta­ti­on de la per­son­ne con­cer­née est intro­duit lorsqu’u­ne décis­i­on fon­dée exclu­si­ve­ment sur un trai­te­ment auto­ma­ti­sé de don­nées est pri­se à son égard et qu’el­le a des effets juri­di­ques ou des con­sé­quen­ces importan­tes pour la per­son­ne con­cer­née. Le droit d’ac­cès doit en out­re per­mett­re à la per­son­ne con­cer­née de deman­der des infor­ma­ti­ons sup­p­lé­men­tai­res sur le résul­tat, la réa­li­sa­ti­on et les effets de la décis­i­on. Le pro­jet con­ti­ent éga­le­ment des mesu­res rela­ti­ves au pro­fi­la­ge, qui repo­se sou­vent sur l’uti­li­sa­ti­on d’al­go­rith­mes. Enfin, les respons­ables de trai­te­ment seront tenus de réa­li­ser une ana­ly­se d’im­pact rela­ti­ve à la pro­tec­tion des don­nées lorsque le trai­te­ment est sus­cep­ti­ble de por­ter att­ein­te à la per­son­na­li­té de la per­son­ne con­cer­née ou à ses droits fon­da­men­taux. Dans ce cad­re, des mesu­res visa­nt à pro­té­ger la per­son­ne con­cer­née doi­vent éga­le­ment être examinées.
  • Recher­che et for­ma­ti­on : En 2015, le Con­seil fédé­ral a lan­cé le Pro­gram­me natio­nal de recher­che sur les “Big Data” (PNR 75). A la fin de l’an­née der­niè­re, dif­fér­ents pro­jets ont été approu­vés dans le cad­re du modu­le 2 (mesu­res socié­ta­les, régle­men­tai­res et édu­ca­ti­ves), qui trai­tent des que­sti­ons éthi­ques dans le domaine du trai­te­ment des don­nées et du “big data”.

Les mesu­res énu­mé­rées mont­rent que le thè­me “Algo­rith­mes et éthi­que en ligne” est déjà inté­g­ré dans les acti­vi­tés en cours. Pour le Con­seil fédé­ral, la pour­suite et le ren­force­ment de ces acti­vi­tés sem­blent être le moy­en le plus effi­cace d’a­bor­der le sujet.