IA dans le lieu de travail : ce que les RH et la direction doivent savoir sur la loi sur l’IA
L’utilisation de l’IA dans les processus des ressources humaines n’est plus un scénario futur, mais un défi actuel. Les employeurs doivent donc se préparer à la Loi sur l’IA. Cette loi entrera en vigueur par étapes ; par exemple, les règles concernant les systèmes à haut risque s’appliqueront à partir du 2 août 2026. Que doivent savoir les employeurs et comment peuvent-ils se préparer ?
Quand l’IA est-elle considérée comme “à haut risque” ?
La Loi sur l’IA classe les systèmes en fonction du risque. Selon la catégorie de risque, des obligations plus ou moins étendues s’appliquent aux développeurs et aux utilisateurs ou « déployeurs » de ces systèmes. Dans un contexte RH, l’IA est considérée comme à haut risque dès qu’elle affecte les perspectives de carrière ou les conditions d’emploi des candidats ou des employés. Des exemples incluent :
- Le filtrage automatisé des candidats
- Les algorithmes déterminant les primes ou promotions
- La planification automatisée de la main-d’œuvre
- Les décisions disciplinaires basées sur l’IA (licenciement, avertissements, plans d’amélioration de la performance)
De nombreux systèmes d’IA utilisés dans les RH seront donc considérés comme des systèmes à haut risque. Les employeurs utilisant de tels systèmes doivent se préparer aux nouvelles obligations qui entreront en vigueur à partir du 2 août 2026.
Il convient de noter que certains systèmes d’IA en RH peuvent même être interdits. Cela inclut les systèmes d’IA qui reconnaissent les émotions sur le lieu de travail ou ceux conçus pour déduire des informations sensibles sur les employés (telles que la race, l’orientation sexuelle ou les croyances politiques) à partir de données biométriques.
Ce que la loi sur l’IA exigera des employeurs utilisant des systèmes à haut risque
Suivre les instructions
Cela peut sembler évident, mais un outil d’IA doit être utilisé conformément aux instructions du développeur et au manuel d’utilisation. Les employeurs doivent s’assurer que leur personnel est correctement formé et capable de suivre ces instructions.
Supervision humaine obligatoire
L’IA ne peut jamais être le seul décideur. Un humain doit pouvoir intervenir, corriger ou expliquer les décisions. Par exemple, si un algorithme rejette un candidat, le recruteur doit être capable d’expliquer pourquoi et d’ajuster ou d’annuler cette décision.
Gestion des risques : démontrer que les risques ont été évalués
Les employeurs qui utilisent l’IA à des fins RH et ont le contrôle des données utilisées pour former ou tester l’outil d’IA doivent être en mesure de démontrer :
- Que les ensembles de données utilisés sont représentatifs et pertinents pour l’objectif visé
- Que des efforts actifs ont été faits pour identifier les biais
- Que les risques ont été identifiés et atténués
Exemple : un outil d’IA qui sélectionne et classe les candidats peut être formé sur un ensemble de données apparemment neutre et représentatif, comme les données de la main-d’œuvre actuelle de l’employeur. En pratique, cependant, ces données peuvent entraîner un classement inférieur pour certains individus, par exemple parce que les candidats ayant un travail à temps partiel ou des interruptions de carrière reçoivent des scores plus bas. Si ce groupe est principalement composé de femmes, cela entraîne une discrimination (non intentionnelle).
Un employeur doit avoir identifié de tels biais à l’avance et pris des mesures pour les éliminer du système. Ce n’est pas un exercice ponctuel, mais une obligation continue.
Transparence : les employés et les candidats doivent être informés
En vertu de la Loi sur l’IA, les individus concernés ont le droit de :
- Savoir quel système d’IA est utilisé et à quelles fins
- Recevoir une explication sur la façon dont le système influence les décisions
- Accéder à une procédure de plaintes s’ils ne sont pas d’accord avec le résultat
Il convient de noter que les lois sur la protection des données et l’égalité de traitement peuvent également s’appliquer. Les individus peuvent être en mesure de demander des informations ou de déposer une plainte en vertu du RGPD ou de la législation sur l’égalité de traitement.
Journalisation : les décisions doivent être traçables a posteriori
Les employeurs doivent être en mesure de démontrer comment une décision a été prise. Cela nécessite de journaliser les données utilisées par l’outil d’IA, le processus appliqué et le résultat obtenu. Si un humain a ensuite examiné la décision, cela doit également être enregistré. En d’autres termes, l’utilisation de l’IA ne doit pas être une « boîte noire », mais totalement transparente.
Le rôle du comité d’entreprise
La participation des employés joue également un rôle. Si un employeur envisage d’introduire un système à haut risque sur le lieu de travail, les employés et leurs représentants (comme un comité d’entreprise, un organe de représentation du personnel ou un syndicat) doivent être informés à l’avance. Dans de nombreux cas, le comité d’entreprise aura également un droit de consentement pour l’introduction de tels systèmes.
Étapes pratiques : comment agir en tant qu’organisation
- Cartographie : identifier quels systèmes d’IA sont déjà en cours d’utilisation au sein de l’organisation et lesquels sont considérés comme à haut risque.
- Documentation : enregistrer comment les décisions sont prises, comment les risques sont analysés et comment la supervision est organisée.
- Impliquer le comité d’entreprise : s’assurer d’une implication en temps utile lorsque l’IA doit être utilisée à des fins RH.
- Formation : les professionnels des RH et les managers doivent savoir comment revoir et corriger les décisions basées sur l’IA. S’assurer qu’ils sont alphabétisés en IA et reçoivent une formation et une éducation appropriées.
