Utilisez-vous l’intelligence artificielle (IA) dans le cadre de votre travail ? Depuis le 2 février, votre employeur doit veiller à ce que vous soyez mieux protégé. La réglementation européenne impose désormais aux employeurs de prendre des mesures pour assurer qu’ils aient un niveau suffisant de « maîtrise de l’IA ». Par ailleurs, certains systèmes d’IA sont désormais interdits.
L’IA transforme notre société à une vitesse fulgurante. Longtemps perçue comme un concept abstrait, elle est aujourd’hui une réalité omniprésente qui bouleverse en profondeur de nombreux processus de travail. Cette révolution technologique offre des opportunités, mais présente aussi des défis, notamment avec l’automatisation croissante de certaines tâches administratives.
En juin 2024, l’Union européenne a adopté un cadre réglementaire dédié à l’IA, connu sous le nom de règlement sur l’intelligence artificielle (AI Act). Il s’agit de la première législation contraignante établissant un cadre commun pour l’utilisation et la mise sur le marché des systèmes d’IA dans l’UE. Ce règlement impose aux entreprises d’agir. Il est entré en vigueur le 1er août 2024 et s’appliquera pleinement à partir du 2 août 2026, bien que certaines dispositions prennent effet plus tôt ou plus tard.
Depuis le 2 février 2025 : obligations pour les employeurs
Le règlement européen impose aux employeurs, depuis le 2 février 2025, de prendre des mesures pour garantir que leurs travailleurs disposent de connaissances suffisantes en matière d’IA. De plus, tous les systèmes d’IA présentant des risques inacceptables sont désormais interdits.
Maîtrise de l’IA
Les employeurs, en tant que fournisseurs et/ou utilisateurs de systèmes d’IA, doivent veiller à ce que leurs travailleurs et toute personne exploitant ces technologies pour leur compte disposent d’un niveau adéquat de maîtrise de l’IA. Ils doivent tenir compte :
- Des compétences techniques, de l’expérience, du niveau d’éducation et de formation des personnes concernées ;
- Du contexte d’utilisation des systèmes d’IA ;
- Des personnes ou groupes de personnes concernées par l’utilisation de ces systèmes.
La maîtrise de l’IA ne signifie pas que tous les travailleurs doivent tout savoir sur l’intelligence artificielle. En revanche, ceux qui interagissent avec ces systèmes doivent être en mesure de comprendre leur impact, d’identifier les risques et de prendre des décisions éclairées.
L’employeur peut déterminer lui-même quelles connaissances sont nécessaires et comment les transmettre (formations générales, cours spécialisés, etc.). Il doit également veiller à ce que les travailleurs maintiennent leur niveau de compétence en IA, même en cas de changement de fonction.
Systèmes d’IA interdits
Les systèmes d’IA présentant un risque inacceptable sont interdits depuis le 2 février 2025, car ils enfreignent les valeurs et droits fondamentaux de l’Union européenne. Par exemple, les systèmes d’IA capables de détecter les émotions d’une personne sur le lieu de travail ou dans les établissements scolaires sont désormais interdits. Les employeurs doivent donc retirer ces systèmes avant le 2 février 2025 et/ou cesser leur utilisation.
Ces obligations issues du règlement sur l’IA sont entrées en vigueur le 2 février 2025, mais les sanctions en cas de non-respect ne seront appliquées qu’à partir du 2 août 2025. À ce jour, la nature exacte de ces sanctions reste incertaine.
L’IA au travail : la CGSLB exprime ses préoccupations
Dans ses Objectifs 2030, la CGSLB plaide pour un cadre réglementaire spécifique afin d’encadrer l’usage de l’IA sur le lieu de travail. Bien que la CCT 39 (portant sur l’information et la consultation des travailleurs concernant l’introduction de nouvelles technologies) permette déjà une certaine implication des syndicats dans l’intégration de l’IA en entreprise, elle date de 1983 (!) et n’est plus adaptée aux défis actuels.
Au sein du Conseil national du Travail, les représentants des travailleurs et des employeurs négocient actuellement la mise à jour de cette convention collective.
Pour la CGSLB, les travailleurs doivent avoir leur mot à dire sur l’introduction de l’IA au travail. Un nouveau cadre réglementaire doit impérativement inclure les éléments suivants :
- Consultation et négociation obligatoires avec les représentants des travailleurs (ou à défaut, avec les travailleurs eux-mêmes) avant l’introduction de l’IA en entreprise.
-
Transparence de l’information, avec communication aux travailleurs et à leurs représentants sur :
- Le fonctionnement des algorithmes (données traitées, collecte des informations, durée de la conservation, etc.) ;
- L’objectif de l’intégration de l’IA ;
- Les impacts sur les conditions de travail, l’organisation de l’emploi, les postes éventuellement menacés et les mesures d’ordre social projetées en matière d’emploi ;
- Le droit d’accès aux données collectées.
- Formation adaptée à l’IA, organisée avec les représentants des travailleurs (ou, à défaut, avec les travailleurs eux-mêmes), afin qu’ils puissent maîtriser cette technologie sans être dépassés.
- Respect des principes de transparence, de finalité, de proportionnalité et de minimisation des données lors de l’introduction de l’IA.
-
Interdiction de :
- de mettre en place des systèmes d’IA présentant un risque de discrimination, de biais ou de non-respect des droits fondamentaux ;
- de collecter certaines données sensibles (conversations privées, état émotionnel ou psychologique des travailleurs, données portant atteinte à la dignité humaine ou aux droits fondamentaux, etc.) ;
- des systèmes de surveillance abusive, que ce soit sur le lieu de travail ou pour les travailleurs en télétravail ;
- d’utiliser uniquement l’IA dans les procédures de recrutement, de promotion ou licenciement. L'IA ne doit servir qu'à conseiller et non à décider. Le processus concernant des décisions aussi importantes pour le travailleur doit rester basé sur une responsabilité humaine dans la prise de décision.