Ven­te à emporter (AI)
  • Ren­force­ment des droits légaux de par­ti­ci­pa­ti­on, d’in­for­ma­ti­on et d’ac­tion coll­ec­ti­ve pour les tra­vail­leurs lors de l’uti­li­sa­ti­on de systè­mes basés sur l’IA sur le lieu de travail.
  • Le Con­seil fédé­ral exami­ne le cad­re juri­di­que exi­stant et les com­plé­ments régle­men­tai­res pos­si­bles ; une ana­ly­se d’i­ci fin 2024 doit cla­ri­fier les beso­ins législatifs.

Moti­on Gysi (23.4492) : Intel­li­gence arti­fi­ci­el­le au tra­vail. Ren­forcer les droits de par­ti­ci­pa­ti­on des travailleurs

Tex­te soumis

Le Con­seil fédé­ral est char­gé de ren­forcer au niveau légal les droits de par­ti­ci­pa­ti­on des tra­vail­leurs lors de l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le (IA) et de systè­mes algo­rith­mi­ques sur le lieu de tra­vail, lorsque ces systè­mes sont uti­li­sés pour Recom­man­da­ti­ons, pré­vi­si­ons, décis­i­ons etc., qui con­cer­nent les tra­vail­leurs ou Don­nées des employés uti­li­ser. Les adap­t­ati­ons doi­vent notam­ment ren­forcer la par­ti­ci­pa­ti­on coll­ec­ti­ve. Pour ce fai­re, le droit de par­ti­ci­pa­ti­on doit être éten­du, les droits à l’in­for­ma­ti­on ren­for­cés, des droits coll­ec­tifs d’ac­tion en justi­ce cré­és et des pos­si­bi­li­tés de sanc­tion exami­nées. L’ob­jec­tif est de mini­mi­ser les ris­ques pour les tra­vail­leurs et tra­vail­leu­ses et de garan­tir que les tra­vail­leurs et tra­vail­leu­ses en pro­fi­tent également.

Justi­fi­ca­ti­on

Com­me le mont­rent de nou­vel­les étu­des, de nombreux tra­vail­leurs en Sui­s­se craign­ent pour leur emploi. Cet­te crain­te s’ac­com­pa­gne sou­vent d’u­ne incer­ti­tu­de quant aux tech­no­lo­gies uti­li­sées sur le lieu de tra­vail et à l’u­sa­ge qui est fait de leurs don­nées. Le man­que de trans­pa­rence et l’in­cer­ti­tu­de ne favo­ri­sent pas de bon­nes rela­ti­ons de tra­vail et dimi­nuent la con­fi­ance des employés dans les systè­mes uti­li­sés. Le man­que de par­ti­ci­pa­ti­on peut ent­raî­ner des inju­sti­ces, car les con­sé­quen­ces pour les dif­fé­ren­tes per­son­nes con­cer­nées ne sont pas plei­ne­ment pri­ses en comp­te, ain­si que des effets néga­tifs sur la san­té des employés – en par­ti­cu­lier dans le cas d’u­ne sur­veil­lan­ce automatisée.

Un nou­veau Avis de droit de l’Uni­ver­si­té de Saint-Gall mont­re qu’il faut agir : Le droit de par­ti­ci­pa­ti­on pré­sen­te diver­ses lacu­nes et ne pro­tège pas suf­fi­sam­ment les droits des tra­vail­leurs et tra­vail­leu­ses. Il est donc important de ren­forcer les droits de par­ti­ci­pa­ti­on. La loi doit défi­nir des obli­ga­ti­ons clai­res pour les employeurs quant à la for­me sous laquel­le les tra­vail­leurs doi­vent être impli­qués et quant au ren­force­ment des droits à l’in­for­ma­ti­on. Les col­la­bo­ra­teurs doi­vent pou­voir recour­ir à des spé­cia­li­stes exter­nes. Les systè­mes liés à la san­té dev­rai­ent en out­re être sou­mis à des obli­ga­ti­ons de par­ti­ci­pa­ti­on enco­re plus for­tes. Un aut­re pro­blè­me rési­de dans le fait que les don­nées uti­li­sées et les effets sur les col­la­bo­ra­teurs sont sou­vent coll­ec­tifs. C’est pour­quoi il faut des pos­si­bi­li­tés de par­ti­ci­pa­ti­on coll­ec­ti­ve et des droits de plain­te coll­ec­tifs. Des pos­si­bi­li­tés de sanc­tions per­met­trai­ent de pour­suiv­re les employeurs qui ne respec­tent pas les pre­scrip­ti­ons en matiè­re de participation.

Avis du Con­seil fédé­ral du 14.2.24

Le Con­seil fédé­ral est con­sci­ent que l’uti­li­sa­ti­on crois­s­an­te de systè­mes algo­rith­mi­ques sur le lieu de tra­vail est liée à des incer­ti­tu­des. La loi sur la par­ti­ci­pa­ti­on (RS 822.14) pré­voit à cet égard un droit géné­ral à l’in­for­ma­ti­on (art. 9), com­plé­té par des droits de par­ti­ci­pa­ti­on par­ti­cu­liers, notam­ment dans le domaine de la san­té au tra­vail (art. 10, al. 1, let. a, en rela­ti­on avec l’art. 48, al. 1, let. a, de la loi sur le tra­vail [LTr]). En plus du droit d’in­for­ma­ti­on et de con­sul­ta­ti­on, il exi­ste des dis­po­si­ti­ons rela­ti­ves à la pro­tec­tion de la san­té qui inter­di­sent l’uti­li­sa­ti­on de systè­mes de sur­veil­lan­ce ou de con­trô­le desti­nés à sur­veil­ler le com­porte­ment des tra­vail­leurs sur le lieu de tra­vail (art. 26, al. 1, de l’or­don­nan­ce 3 rela­ti­ve à la loi sur le tra­vail [OLT 3]). Le prin­ci­pe de l’é­ga­li­té de trai­te­ment énon­cé dans le Loi sur l’é­ga­li­té (LEg, RS 151.1) s’ap­pli­que éga­le­ment aux cas où l’em­ployeur uti­li­se l’in­tel­li­gence arti­fi­ci­el­le (IA). La loi sur la pro­tec­tion des don­nées (LPD, RS 235.1) garan­tit pour sa part une pro­tec­tion com­plè­te des don­nées per­son­nel­les des employés. La révi­si­on de la LPD a ren­for­cé l’ob­li­ga­ti­on d’in­for­mer, notam­ment en cas de décis­i­ons indi­vi­du­el­les auto­ma­ti­sées, et a créé la pos­si­bi­li­té de fai­re appel à une per­son­ne phy­si­que. Par ail­leurs, l’art. 22 LPD con­ti­ent désor­mais éga­le­ment une obli­ga­ti­on pour le responsable d’ef­fec­tuer une ana­ly­se d’im­pact rela­ti­ve à la pro­tec­tion des don­nées lorsqu’un trai­te­ment est sus­cep­ti­ble d’en­gend­rer un ris­que éle­vé pour la per­son­na­li­té ou les droits fon­da­men­taux de la per­son­ne con­cer­née, notam­ment en rai­son de l’uti­li­sa­ti­on de nou­vel­les tech­no­lo­gies (art. 22, al. 2, LPD) tel­les que l’in­tel­li­gence arti­fi­ci­el­le. Enfin, les artic­les 328 et 328b du Code des obli­ga­ti­ons garan­tis­sent la pro­tec­tion de la per­son­na­li­té des travailleurs.

Le cad­re juri­di­que actuel com­prend éga­le­ment des instru­ments d’e­xer­ci­ce des droits. Les inspec­tions can­to­na­les du tra­vail sont char­gées de veil­ler au respect des dis­po­si­ti­ons du droit du tra­vail. L’ar­tic­le 59 LTr, en par­ti­cu­lier, pré­voit des sanc­tions péna­les en cas d’in­frac­tion aux dis­po­si­ti­ons rela­ti­ves à la pro­tec­tion de la san­té. En cas d’in­frac­tion à la loi sur la par­ti­ci­pa­ti­on, les asso­cia­ti­ons de tra­vail­leurs peu­vent inten­ter une action en con­sta­ta­ti­on (art. 15, al. 2, de la loi sur la par­ti­ci­pa­ti­on) et l’ar­tic­le 7 LEg pré­voit la pos­si­bi­li­té d’ac­tions et de recours pour les orga­ni­sa­ti­ons qui exi­stent depuis au moins deux ans et qui, selon leurs sta­tuts, prom­eu­vent l’é­ga­li­té ent­re femmes et hom­mes ou défen­dent les inté­rêts des tra­vail­leurs. Par ail­leurs, le Con­seil fédé­ral, dans sa Mes­sa­ge du 10 décembre 2021 rela­tif à la modi­fi­ca­ti­on du code de pro­cé­du­re civi­le sui­s­se (action coll­ec­ti­ve et tran­sac­tion coll­ec­ti­ve) pro­po­sé de ren­forcer sub­stan­ti­el­le­ment les recours coll­ec­tifs. Ce pro­jet est actu­el­le­ment en dis­cus­sion au Par­le­ment. Sur la base de l’art. 49, al. 1, LPD, le Pré­po­sé fédé­ral à la pro­tec­tion des don­nées et à la trans­pa­rence (PFPDT) peut ouvr­ir une enquête, d’of­fice ou sur dénon­cia­ti­on, lorsqu’il exi­ste suf­fi­sam­ment d’in­di­ces qu’un trai­te­ment de don­nées pour­rait vio­ler les dis­po­si­ti­ons sur la pro­tec­tion des don­nées. Le cas échéant, il peut ordon­ner que le trai­te­ment des don­nées soit adap­té, inter­rom­pu ou annulé en tout ou en par­tie et que les don­nées per­son­nel­les soi­ent effa­cées ou détrui­tes en tout ou en par­tie (art. 51 LPD). En out­re, la LPD pré­voit des dis­po­si­ti­ons péna­les en cas de vio­la­ti­on du devoir de dili­gence ou de l’ob­li­ga­ti­on de gar­der le secret et en cas de non-respect des décis­i­ons du PFPDT. La pour­suite et le juge­ment des actes punis­sa­bles incom­bent aux can­tons (art. 60 ss LPD).

L’IA évo­lue donc pas dans une zone de non-droit. La que­sti­on de savoir si le droit sui­s­se est à la hauteur des défis liés à l’IA est en cours d’ex­amen. Le 22 novembre 2023, le Con­seil fédé­ral a a char­gé le DETEC et le DFAEL’ob­jec­tif est de dress­er un état des lieux des appro­ches régle­men­tai­res pos­si­bles pour l’uti­li­sa­ti­on de l’in­tel­li­gence arti­fi­ci­el­le. L’ana­ly­se, qui dev­rait être dis­po­ni­ble d’i­ci à la fin de l’an­née 2024, por­te­ra éga­le­ment sur l’i­den­ti­fi­ca­ti­on des beso­ins sec­to­ri­els en matiè­re de régle­men­ta­ti­on de l’in­tel­li­gence arti­fi­ci­el­le. Sur la base de ces travaux, le Con­seil fédé­ral déci­de­ra s’il y a lieu de légifé­rer et com­ment il con­vi­ent d’en tenir comp­te. Il ne faut pas pré­ju­ger des résul­tats de ces travaux.