La protection des travailleurs – la loi européenne sur l’IA

La protection des travailleurs – la loi européenne sur l’IA

Agora #96
30 - 35

Cette note d'information fournit aux représentants syndicaux les outils nécessaires pour dénoncer et lutter contre l'utilisation abusive de l'IA au travail.

La protection des travailleurs dans le cadre de la loi européenne sur l’IA

L’Europe : la seule région à avoir réglementé l’IA

Cette note d’information fournit aux représentants syndicaux les outils nécessaires pour dénoncer et lutter contre l’utilisation abusive de l’IA au travail.

La loi européenne sur l’IA (règlement 2024/1689) crée le premier cadre au monde pour gérer intégralement l’intelligence artificielle. Elle apporte aussi des protections strictes pour les travailleurs soumis à la gestion algorithmique. Une fiche de référence claire et concise est précieuse pour les représentants syndicaux. Elle leur donne les connaissances nécessaires afin d’anticiper et de contester les effets du management par l’algorithme (MA). Les systèmes d’IA influencent de plus en plus l’embauche, l’évaluation et la gestion quotidiennes. Des conseils accessibles leur permettent donc d’assurer l’équité, la transparence et la dignité au travail.

De l’importance du RGPD

La loi européenne sur l’IA est l’instrument principal pour réglementer le management par l’algorithme. Le règlement général sur la protection des données (RGPD) reste cependant fondamental pour protéger les travailleurs, surtout quand des décisions automatisées sont prises. Selon l’article 22 du RGPD, chacun a le droit de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé qui l’affecte fortement. Cela couvre les embauches, promotions ou licenciements décidés par des outils d’IA. Ces deux textes forment un régime complémentaire : la loi sur l’IA régit la conception et l’usage des IA à haut risque, tandis que le RGPD protège les droits procéduraux, la transparence et les voies de recours des travailleurs concernés.

Chronologie de la mise en œuvre de la loi européenne sur l’IA

La loi européenne sur l’IA entrera en vigueur par étapes. Il est essentiel d’intégrer cette chronologie afin d’anticiper les obligations des employeurs et garantir une protection rapide des travailleurs.

Février 2025Application des interdictions et des exigences en matière de connaissances sur l’IA

Les pratiques interdites en matière d’IA, telles que la reconnaissance des émotions sur le lieu de travail et l’IA manipulatrice, deviennent juridiquement contraignantes. En outre, les exigences en matière de connaissances en IA entrent en vigueur.

Août 2025Application des obligations relatives aux modèles d’IA à usage général

Les exigences relatives aux modèles d’IA à usage général, y compris la documentation et les contrôles des risques, entrent en vigueur.

Août 2026Application de la plupart des obligations relatives aux risques élevés, y compris l’IA dans le domaine de l’emploi

Cette étape est décisive pour les travailleurs. Toutes les obligations sur les systèmes à haut risque deviennent applicables, y compris pour les outils de recrutement, les algorithmes d’évaluation, les systèmes d’attribution des tâches et l’IA pour les licenciements. Cela inclut le respect des articles 9 à 15 portant sur la gestion des risques, la gouvernance des données, la transparence, la supervision humaine, la tenue de registres, l’exactitude et la robustesse.

Août 2027Les obligations restantes s’appliquent

Les dispositions finales de la loi entrent en vigueur, complétant ainsi le cadre réglementaire.

Dès août 2026, les représentants syndicaux devront demander aux employeurs des documents précis : rapports d’évaluation des risques, inventaires des données, registres de contrôle humain. Identifier et demander ces pièces facilite les négociations. Cela aide aussi à bâtir des dossiers fondés sur des preuves pour responsabiliser les employeurs et négocier de meilleures protections.

  • Gestion des risques (article 9)

Pour aider à traduire cette exigence en mesures concrètes, les représentants syndicaux peuvent utiliser l’évaluation des risques comme occasion de dialogue. Par exemple, ils peuvent demander : «Quelles caractéristiques protégées ont été testées pour détecter les préjugés ? Comment les risques de traitement injuste lors du recrutement et de l’évaluation ont-ils été identifiés ? Quelles mesures garantissent la qualité et la pertinence des données ? Qui a participé à l’évaluation ? Les travailleurs ont-ils été consultés ? Existe-t-il des procédures claires si un travailleur souhaite contester une décision prise par l’IA ?». En posant ces questions, les représentants rendent la gestion des risques un sujet concret et constructif de dialogue avec les employeurs.

  • Enregistrement et vérifiabilité (article 12)

Dans un cas, par exemple, les données consignées dans les journaux informatiques (logs) ont permis d’établir clairement qu’une décision de licenciement automatisée avait été déclenchée par une erreur de saisie, ce qui a permis à un travailleur de contester et, finalement, d’annuler son licenciement. (Un tribunal espagnol annule un licenciement fondé sur une lettre de licenciement générée par l’IA, 2024) Des exemples concrets comme celui-ci montrent pourquoi l’accès rapide aux journaux, en vertu de l’article 12, est essentiel et peut inciter les représentants à demander ces preuves dans le cadre de leur surveillance régulière.

Protections essentielles pour les travailleurs

Définition d’une catégorie d’emploi à haut risque

La loi européenne sur l’IA définit comme à haut risque les systèmes d’IA utilisés pour le recrutement, la sélection des candidats, le contrôle des performances ou les décisions ayant une incidence sur les conditions d’emploi. Cette classification garantit que les employeurs ne peuvent pas déployer de tels systèmes sans satisfaire à des obligations légales strictes visant à protéger les droits fondamentaux et à prévenir les décisions discriminatoires ou opaques. Par exemple, les systèmes d’IA liés à l’emploi, tels que ceux utilisés pour le recrutement, l’évaluation, l’attribution des tâches, la promotion ou le licenciement, sont explicitement classés comme à haut risque en vertu de l’article 6, paragraphe 2, et de l’annexe III, catégorie 4, ce qui déclenche les mesures de protection les plus strictes prévues par la loi.

Mesures de protection fondamentales (articles 9 à 15)

  • Gestion des risques (article 9)

Les employeurs doivent évaluer, documenter et atténuer les risques tout au long du cycle de vie du système d’IA afin de réduire les préjudices tels que les préjugés, les notes discriminatoires et les licenciements injustifiés.

  • Gouvernance des données et prévention des biais (article 10)

La loi exige des ensembles de données de haute qualité, représentatifs et impartiaux pour l’IA appliquée à l’emploi, afin d’atténuer les risques de discrimination dans le recrutement ou l’évaluation.

  • Documentation technique (article 11)

Une documentation complète du système favorise la responsabilité et facilite les consultations avec les travailleurs. Elle permet aussi d’enquêter sur les décisions algorithmiques injustes.

  • Enregistrement et vérifiabilité (article 12)

Les systèmes d’IA doivent conserver des journaux détaillés, permettant aux travailleurs et aux régulateurs d’auditer les décisions, de contester les résultats et d’identifier les problèmes systémiques.

  •    Transparence (article 13)

Les travailleurs ont une meilleure visibilité sur le fonctionnement des systèmes d’IA, les données qu’ils utilisent et la manière dont les décisions automatisées sont prises. Cela permet de remédier aux règles de décision cachées qui, sans cela, maintiendraient les travailleurs dans l’ignorance quant à l’impact de l’IA sur leur situation.

  •    Contrôle humain (article 14)

Les employeurs doivent garantir une participation humaine significative aux décisions prises par l’IA. Les licenciements, évaluations ou mesures disciplinaires entièrement automatisés sont interdits, afin de préserver la dignité des travailleurs et le respect des procédures régulières.

  •    Précision, robustesse et sécurité (article 15)

Les IA à haut risque doivent être précises et résilientes, afin de réduire les évaluations erronées, les classifications incorrectes et d’autres conséquences néfastes pour les travailleurs.

Pratiques interdites Protection des travailleurs

La loi interdit certaines pratiques jugées risques inacceptables pour les droits fondamentaux, la sécurité et l’intérêt public. Il s’agit notamment :

  • des systèmes d’IA utilisant des techniques subliminales pour manipuler le comportement ;
  • de l’exploitation des vulnérabilités de groupes spécifiques, notamment les enfants et les personnes handicapées ;
  • de la notation sociale basée sur des caractéristiques personnelles qui aboutit à des résultats discriminatoires ;
  • de la prédiction de comportements criminels basée uniquement sur le profilage (Bienvenue dans Matrix) ;
  • Le scraping non ciblé pour les bases de données de reconnaissance faciale.
  • La reconnaissance des émotions sur les lieux de travail et dans les établissements d’enseignement, sauf pour des raisons médicales ou de sécurité. (Bienvenue dans Blade Runner)
  • La catégorisation biométrique pour déduire des attributs sensibles, sauf à des fins légales d’application de la loi ; et
  • L’identification biométrique à distance en temps réel dans les espaces publics à des fins d’application de la loi. (Bienvenue dans Robocop)

Que peuvent faire les représentants syndicaux ?

Malgré les promesses solides protections de la loi européenne sur l’IA, d’importantes lacunes subsistent. La loi offre aux syndicats un nouveau levier pour lutter contre le management par l’algorithme, mais ses garanties ne sont ni automatiques ni exhaustives, et de nombreuses protections ne prendront effet que dans un avenir proche. Cette tension entre promesse et réalité plante le décor : les syndicats acquièrent des outils juridiques puissants, mais la charge de garantir un véritable changement sur le lieu de travail incombe toujours aux représentants. L’efficacité de l’application de la loi dépendra de la manière dont les syndicats utiliseront ces dispositions et de la manière dont les employeurs s’y conformeront. Afin d’aider les membres des syndicats à se sentir à la fois avertis et responsabilisés, il est important d’associer chaque limitation de la loi à une mesure d’organisation pratique et immédiate.

Le tableau ci-dessous présente les principales lacunes et les mesures correspondantes que les représentants peuvent prendre dès maintenant :

Inspired by The Why Not Lab, founded by Dr Christina Colclough, advisor to UNI Global Union on digitalisation and algorithmic management. https://www.thewhynotlab.com/services/toolkit

Cette approche permet aux représentants syndicaux de réagir de manière proactive aux limites de la loi et de transformer les lacunes législatives en champs d’action immédiats pour l’organisation.

Les représentants peuvent s’appuyer sur les obligations strictes de la loi pour les emplois à haut risque liés à l’IA. Cependant, ils doivent reconnaître que la plupart des dispositions relatives à l’IA sur le lieu de travail ne s’appliqueront qu’à partir d’août 2026, laissant de nombreux systèmes actuels non réglementés en pratique jusqu’à cette date. Pendant cette période transitoire, les employeurs peuvent adopter ou développer des systèmes d’IA que les syndicats ne peuvent contester qu’indirectement, au moyen du RGPD ou des lois existantes, telles que la Directive sur les plateformes.

Bien que la loi exige la documentation, la transparence et la consignation, elle n’accorde pas aux travailleurs ni aux syndicats un accès automatique à ces documents. La demande d’accès deviendra probablement un sujet de négociation ou de conflit, en particulier au sein des institutions où les employeurs invoquent la confidentialité ou la protection de la propriété intellectuelle. Si les obligations de transparence prévues par la loi s’appliquent aux déployeurs, l’étendue des informations que les travailleurs recevront, dans la pratique, reste floue.

Pour ancrer concrètement ces défis dans les négociations, les représentants syndicaux peuvent proposer des clauses spécifiques, telles que la création d’un comité mixte chargé d’examiner les algorithmes, l’obligation d’informer les syndicats à l’avance de tout déploiement ou de toute mise à jour majeure de systèmes d’IA à haut risque, ou l’octroi d’un droit permanent aux experts désignés par les syndicats d’auditer la documentation technique et les fichiers journaux. D’autres clauses pourraient inclure l’obligation pour l’employeur et le syndicat de rédiger conjointement des rapports de transparence ou d’assurer une surveillance conjointe des biais algorithmiques. En intégrant ces leviers dans les accords du comité d’entreprise ou dans les négociations collectives, les représentants peuvent aller au-delà des droits théoriques pour obtenir un accès pratique et exécutoire à l’information.

Les exigences en matière de contrôle humain peuvent sembler rassurantes ; cependant, le terme « contrôle humain significatif » est défini de manière vague, ce qui permet un contrôle symbolique ou une simple validation des décisions algorithmiques. La loi ne garantit pas que le contrôleur humain sera indépendant, habilité ou formé pour remettre en question les résultats de l’IA, malgré l’application préalable d’obligations générales relatives aux connaissances de l’IA. Par conséquent, la clause « human-in-the-loop » risque de rester procédurale plutôt que substantielle.

Pour remédier à cela, les représentants syndicaux peuvent aller au-delà de la simple confirmation de l’existence d’un contrôle humain et s’intéresser plutôt à sa qualité. Une simple liste de contrôle peut aider à évaluer si la supervision est vraiment significative : le contrôleur est-il indépendant du fournisseur du système ou est-il soumis à des conflits d’intérêts ? Le contrôleur humain a-t-il réellement le pouvoir de contester ou d’annuler les décisions de l’IA ? Le contrôleur a-t-il reçu une formation adéquate pour comprendre les résultats et les risques de l’IA ? L’utilisation de tels critères, inspirés des cadres d’audit éthique, peut aider les représentants à promouvoir une supervision substantielle et efficace plutôt qu’une simple vérification administrative.

De plus, le cadre fondé sur les risques et la conformité prévu par la loi impose aux employeurs et aux fournisseurs d’IA une responsabilité importante en matière d’auto-évaluation, d’auto-documentation et d’auto-surveillance. Les syndicats doivent anticiper les asymétries d’information et de pouvoir, en particulier dans les lieux de travail complexes où la gestion algorithmique est intégrée à des systèmes propriétaires. Même l’interdiction de la reconnaissance des émotions et d’autres pratiques manipulatrices de l’IA, bien que juridiquement applicable aujourd’hui, nécessitera une surveillance et un signalement actifs de la part des travailleurs, la charge de la preuve pouvant incomber aux syndicats.

Pour alléger ce fardeau et favoriser une culture de vigilance participative, les syndicats sont encouragés à développer les compétences collectives de leurs membres. Une mesure concrète consiste à créer conjointement des listes de contrôle simples ou des outils de repérage qui aident à identifier les systèmes d’IA sur le lieu de travail, les pratiques douteuses ou les violations potentielles. En impliquant les travailleurs dans la conception de ces outils communs, les syndicats peuvent renforcer la confiance de leurs membres pour détecter, documenter et soulever ensemble leurs préoccupations. Cette approche collaborative transforme la surveillance passive en un apprentissage communautaire actif, faisant des travailleurs des partenaires clés pour garantir la conformité et faire progresser la protection des travailleurs.

Enfin, bien que l’article 22 du RGPD prévoie un droit essentiel de contester les décisions entièrement automatisées, ce droit est limité, difficilement exercé et souvent mal appliqué en pratique. De nombreux employeurs affirment que les décisions influencées par l’IA, mais qui ne sont pas formellement « uniquement automatisées », ne relèvent pas des dispositions du RGPD. Les décisions prises à l’aide de l’IA dans le cadre du recrutement ou de l’évaluation des performances brouillent souvent cette distinction, ce qui complique la capacité des travailleurs à démontrer quand un système d’IA a été déterminant. (Capasso et al., 2025) Pour ces raisons, la loi européenne sur l’IA n’est pas une panacée. Elle fournit des outils importants, mais leur efficacité dépend de la capacité des syndicats à :

  • Exiger l’accès à la documentation, aux registres et aux évaluations des risques, même lorsque les employeurs sont réticents.
  • Surveiller les lieux de travail afin de détecter les utilisations cachées ou indirectes de l’IA que la loi ne couvre pas explicitement.
  • Négocier des clauses d’accords collectifs qui vont au-delà de la loi afin de combler les lacunes en matière de surveillance, d’accès à l’information et de participation des travailleurs. Utiliser le RGPD de manière stratégique lorsque la loi sur l’IA est insuffisante ou n’est pas encore entrée en vigueur.

En résumé, la loi européenne sur l’IA pose de nouveaux défis/opportunités/détours ; cependant, les syndicats devront faire preuve de persévérance, d’expertise et exercer une pression collective pour concrétiser ces avantages. Les réglementations fournissent des outils utiles, mais ne garantissent pas les résultats. Les représentants syndicaux restent essentiels pour traduire les obligations légales en une protection efficace des travailleurs.

Emmanuel Wietzel

À  propos de l’auteur

Emmanuel Wietzel est un formateur expérimenté auprès des acteurs syndicaux européens  (entre autres la Cgt, FSESP, ETUI, USF, FERPA, Eurocadres). Il aide les syndicats et leurs dirigeants à analyser les enjeux européens et à élaborer des stratégies collectives pour faire face aux transformations du travail. Il s’intéresse actuellement à l’impact de l’IA sur le monde du travail et au rôle renouvelé du syndicalisme. Alliant engagement pratique et expertise analytique, il contribue activement aux débats sur l’avenir du travail et sur la négociation collective en Europe.