- Renforcement des droits légaux de participation, d’information et d’action collective pour les travailleurs lors de l’utilisation de systèmes basés sur l’IA sur le lieu de travail.
- Le Conseil fédéral examine le cadre juridique existant et les compléments réglementaires possibles ; une analyse d’ici fin 2024 doit clarifier les besoins législatifs.
Texte soumis
Le Conseil fédéral est chargé de renforcer au niveau légal les droits de participation des travailleurs lors de l’utilisation de l’intelligence artificielle (IA) et de systèmes algorithmiques sur le lieu de travail, lorsque ces systèmes sont utilisés pour Recommandations, prévisions, décisions etc., qui concernent les travailleurs ou Données des employés utiliser. Les adaptations doivent notamment renforcer la participation collective. Pour ce faire, le droit de participation doit être étendu, les droits à l’information renforcés, des droits collectifs d’action en justice créés et des possibilités de sanction examinées. L’objectif est de minimiser les risques pour les travailleurs et travailleuses et de garantir que les travailleurs et travailleuses en profitent également.
Justification
Comme le montrent de nouvelles études, de nombreux travailleurs en Suisse craignent pour leur emploi. Cette crainte s’accompagne souvent d’une incertitude quant aux technologies utilisées sur le lieu de travail et à l’usage qui est fait de leurs données. Le manque de transparence et l’incertitude ne favorisent pas de bonnes relations de travail et diminuent la confiance des employés dans les systèmes utilisés. Le manque de participation peut entraîner des injustices, car les conséquences pour les différentes personnes concernées ne sont pas pleinement prises en compte, ainsi que des effets négatifs sur la santé des employés – en particulier dans le cas d’une surveillance automatisée.
Un nouveau Avis de droit de l’Université de Saint-Gall montre qu’il faut agir : Le droit de participation présente diverses lacunes et ne protège pas suffisamment les droits des travailleurs et travailleuses. Il est donc important de renforcer les droits de participation. La loi doit définir des obligations claires pour les employeurs quant à la forme sous laquelle les travailleurs doivent être impliqués et quant au renforcement des droits à l’information. Les collaborateurs doivent pouvoir recourir à des spécialistes externes. Les systèmes liés à la santé devraient en outre être soumis à des obligations de participation encore plus fortes. Un autre problème réside dans le fait que les données utilisées et les effets sur les collaborateurs sont souvent collectifs. C’est pourquoi il faut des possibilités de participation collective et des droits de plainte collectifs. Des possibilités de sanctions permettraient de poursuivre les employeurs qui ne respectent pas les prescriptions en matière de participation.
Avis du Conseil fédéral du 14.2.24
Le Conseil fédéral est conscient que l’utilisation croissante de systèmes algorithmiques sur le lieu de travail est liée à des incertitudes. La loi sur la participation (RS 822.14) prévoit à cet égard un droit général à l’information (art. 9), complété par des droits de participation particuliers, notamment dans le domaine de la santé au travail (art. 10, al. 1, let. a, en relation avec l’art. 48, al. 1, let. a, de la loi sur le travail [LTr]). En plus du droit d’information et de consultation, il existe des dispositions relatives à la protection de la santé qui interdisent l’utilisation de systèmes de surveillance ou de contrôle destinés à surveiller le comportement des travailleurs sur le lieu de travail (art. 26, al. 1, de l’ordonnance 3 relative à la loi sur le travail [OLT 3]). Le principe de l’égalité de traitement énoncé dans le Loi sur l’égalité (LEg, RS 151.1) s’applique également aux cas où l’employeur utilise l’intelligence artificielle (IA). La loi sur la protection des données (LPD, RS 235.1) garantit pour sa part une protection complète des données personnelles des employés. La révision de la LPD a renforcé l’obligation d’informer, notamment en cas de décisions individuelles automatisées, et a créé la possibilité de faire appel à une personne physique. Par ailleurs, l’art. 22 LPD contient désormais également une obligation pour le responsable d’effectuer une analyse d’impact relative à la protection des données lorsqu’un traitement est susceptible d’engendrer un risque élevé pour la personnalité ou les droits fondamentaux de la personne concernée, notamment en raison de l’utilisation de nouvelles technologies (art. 22, al. 2, LPD) telles que l’intelligence artificielle. Enfin, les articles 328 et 328b du Code des obligations garantissent la protection de la personnalité des travailleurs.
Le cadre juridique actuel comprend également des instruments d’exercice des droits. Les inspections cantonales du travail sont chargées de veiller au respect des dispositions du droit du travail. L’article 59 LTr, en particulier, prévoit des sanctions pénales en cas d’infraction aux dispositions relatives à la protection de la santé. En cas d’infraction à la loi sur la participation, les associations de travailleurs peuvent intenter une action en constatation (art. 15, al. 2, de la loi sur la participation) et l’article 7 LEg prévoit la possibilité d’actions et de recours pour les organisations qui existent depuis au moins deux ans et qui, selon leurs statuts, promeuvent l’égalité entre femmes et hommes ou défendent les intérêts des travailleurs. Par ailleurs, le Conseil fédéral, dans sa Message du 10 décembre 2021 relatif à la modification du code de procédure civile suisse (action collective et transaction collective) proposé de renforcer substantiellement les recours collectifs. Ce projet est actuellement en discussion au Parlement. Sur la base de l’art. 49, al. 1, LPD, le Préposé fédéral à la protection des données et à la transparence (PFPDT) peut ouvrir une enquête, d’office ou sur dénonciation, lorsqu’il existe suffisamment d’indices qu’un traitement de données pourrait violer les dispositions sur la protection des données. Le cas échéant, il peut ordonner que le traitement des données soit adapté, interrompu ou annulé en tout ou en partie et que les données personnelles soient effacées ou détruites en tout ou en partie (art. 51 LPD). En outre, la LPD prévoit des dispositions pénales en cas de violation du devoir de diligence ou de l’obligation de garder le secret et en cas de non-respect des décisions du PFPDT. La poursuite et le jugement des actes punissables incombent aux cantons (art. 60 ss LPD).
L’IA évolue donc pas dans une zone de non-droit. La question de savoir si le droit suisse est à la hauteur des défis liés à l’IA est en cours d’examen. Le 22 novembre 2023, le Conseil fédéral a a chargé le DETEC et le DFAEL’objectif est de dresser un état des lieux des approches réglementaires possibles pour l’utilisation de l’intelligence artificielle. L’analyse, qui devrait être disponible d’ici à la fin de l’année 2024, portera également sur l’identification des besoins sectoriels en matière de réglementation de l’intelligence artificielle. Sur la base de ces travaux, le Conseil fédéral décidera s’il y a lieu de légiférer et comment il convient d’en tenir compte. Il ne faut pas préjuger des résultats de ces travaux.