Les nouvelles règles de recrutement par IA en Californie et les risques juridiques croissants pour les employeurs
Les systèmes de décision automatisés (SDA) et l’intelligence artificielle (IA) sont devenus des outils courants dans le recrutement et l’embauche modernes. Les régulateurs et tribunaux californiens se concentrent de plus en plus sur l’utilisation de ces outils par les employeurs et les risques juridiques associés.
Les règlements des SDA en Californie sont désormais en vigueur
Les règlements amendés de la Fair Employment and Housing Act (FEHA) en Californie précisent que l’utilisation des SDA, y compris des outils alimentés par l’IA, dans le recrutement, l’embauche, la promotion et autres décisions d’emploi est soumise aux lois anti-discrimination de l’État. Ces règlements sont entrés en vigueur le 1er octobre 2025.
Bien que ces règlements n’interdisent pas l’utilisation de l’IA ou des SDA, ils renforcent plusieurs principes fondamentaux que les employeurs devraient intégrer dans leurs programmes de conformité :
- Les employeurs restent responsables des résultats discriminatoires résultant de décisions assistées par l’IA, même lorsque les outils sont développés ou administrés par des tiers.
- Les décisions basées sur les SDA doivent être liées au poste et conformes à la nécessité commerciale si elles entraînent un impact disparate sur des groupes protégés.
- La documentation, les tests et la conservation des dossiers sont essentiels, notamment pour expliquer comment les outils automatisés influencent les décisions d’emploi.
- Les fournisseurs peuvent être considérés comme des agents en vertu de la FEHA, renforçant l’importance de la diligence raisonnable et de la gouvernance contractuelle.
Une nouvelle théorie de responsabilité pour les outils de recrutement par IA : le procès Eightfold AI
Un recours collectif récemment déposé contre Eightfold AI met en lumière un autre domaine d’exposition pour les employeurs utilisant des outils de recrutement basés sur l’IA. En janvier 2026, des candidats ont allégué que les scores et classements générés par l’IA d’Eightfold fonctionnent comme des « rapports de consommateurs » au sens de la Fair Credit Reporting Act (FCRA) et de la California’s Investigative Consumer Reporting Agencies Act (ICRAA).
Contrairement aux litiges antérieurs focalisés sur la discrimination, le procès contre Eightfold concerne principalement le processus et la transparence. Les plaignants affirment que la plateforme rassemble et évalue des informations des candidats, fournissant des scores qui influencent les décisions sans que les candidats aient été informés ni aient donné leur consentement.
Si cette théorie est acceptée par les tribunaux, les implications pourraient s’étendre au-delà d’Eightfold. Tout outil d’IA tiers collectant des données de candidats pourrait engager des obligations de reporting, indépendamment du risque de discrimination perçu par l’employeur.
Ce que cela signifie pour les employeurs en 2026
Les règlements des SDA en Californie, ainsi que les litiges récents illustrent que les risques liés à l’emploi par IA concernent désormais plusieurs cadres juridiques :
- Droit anti-discrimination (FEHA et lois fédérales sur les droits civils)
- Statuts de reporting des consommateurs axés sur la notification, l’autorisation et les droits de contestation
- Attentes renforcées en matière de transparence et de documentation liées à la prise de décision automatisée
Pour les employeurs, cela signifie que la gouvernance de l’IA doit porter à la fois sur les résultats et sur les processus. Concrètement, il est recommandé de :
- Inventorier les outils d’IA et de SDA utilisés à chaque étape du recrutement.
- Comprendre quelles données ces outils collectent, évaluent ou infèrent.
- Évaluer si les résultats de l’IA peuvent être considérés comme des rapports ou scores influençant les décisions d’emploi.
- Revoir les accords avec les fournisseurs, les divulgations et les workflows internes afin d’assurer leur conformité aux obligations anti-discrimination et procédurales.
Conclusion
Les outils de recrutement par IA demeurent autorisés et précieux, mais le cadre juridique évolue rapidement. Les règlements SDA californiens confirment que l’IA est bien couverte par les lois sur la discrimination en emploi, tandis que des litiges émergents comme l’affaire Eightfold montrent que la conformité procédurale et la transparence seront des enjeux clés à venir.
Les employeurs qui envisagent la gouvernance de l’IA comme un enjeu de conformité global, au-delà d’une simple préoccupation technologique, seront mieux préparés à gérer ces risques interconnectés en 2026 et au-delà.
