AI-Assisted Hiring in 2026: Managing Discrimination Risk
Pour les grands employeurs — et pour les entreprises technologiques fournissant des plateformes de recrutement — le profil de risque autour du recrutement assisté par l’IA a évolué d’une “préoccupation future” à une question à laquelle il faut prêter attention dès maintenant. Le point central est simple : l’utilisation d’un algorithme ne réduit pas les obligations anti-discrimination ; elle augmente souvent le besoin de validation, de suivi, de documentation et de supervision des fournisseurs.
Les États et même les municipalités sont passés de déclarations générales à des exigences ciblées (par exemple, des audits, des avis, la tenue de registres et des obligations relatives aux systèmes “à haut risque”), créant un patchwork dont les grands employeurs multi-états doivent être conscients. De plus, les lois anti-discrimination existantes, tant au niveau étatique que fédéral, demeurent en vigueur et s’appliquent aux décisions d’emploi assistées par l’IA.
1. Le cadre fédéral : l’IA ne change pas les règles
Même sans une loi fédérale globale sur le “recrutement par IA”, le cadre fédéral existant crée déjà une exposition significative :
- Title VII et impact disparate. La Commission pour l’égalité des chances en matière d’emploi (EEOC) a souligné que les employeurs utilisant des logiciels/algorithmes/IA comme “procédures de sélection” peuvent faire face à une responsabilité pour impact disparate si les résultats excluent de manière disproportionnée des groupes protégés et que l’employeur ne peut pas démontrer la nécessité commerciale liée à l’emploi.
- Loi sur les Américains handicapés (ADA) et accommodations. Les outils algorithmiques peuvent créer un risque de discrimination en vertu de la loi fédérale de plusieurs manières récurrentes : (1) “exclusion” d’individus en raison de caractéristiques liées au handicap ; (2) utilisation d’outils qui mènent effectivement à des enquêtes liées au handicap ou à des examens médicaux avant l’offre ; et (3) échec à fournir des accommodations raisonnables dans un processus piloté par IA.
2. La litige Workday : pourquoi les fournisseurs et “opérateurs de plateformes” sont désormais concernés
Le cas Mobley v. Workday (N.D. Cal.) est largement considéré comme un indicateur de tendance car il teste si un fournisseur de technologie RH peut être traité comme un “agent” effectuant des fonctions de recrutement pour les employeurs, et donc faire face à une responsabilité en vertu des lois anti-discrimination fédérales. Le tribunal a permis aux réclamations de se poursuivre sur la théorie que Workday pourrait être considéré comme un “agent” exécutant des fonctions de recrutement déléguées.
- Délégation créant une responsabilité potentielle. Plus une entreprise s’appuie opérationnellement sur un système pour rejeter, classer ou orienter des candidats avec une intervention humaine minimale, plus il devient facile pour les plaignants d’arguer que l’outil effectue effectivement une fonction de recrutement — et que l’employeur ainsi que le fournisseur/la plateforme devraient être responsables.
- Posture collective/class augmente la pression de règlement et les charges de découverte. Le tribunal a accordé une certification conditionnelle d’une action collective en vertu de la loi sur la discrimination en raison de l’âge (ADEA), ce qui représente une escalade significative car cela augmente les avis, la portée de la découverte et l’exposition potentielle, même avant que le fond ne soit décidé.
3. Lois sur le recrutement spécifiques à l’IA au niveau des États et des municipalités
New York City : La Loi locale 144
New York City a adopté la première loi au pays concernant le recrutement assisté par IA. En résumé, les employeurs et les agences de recrutement ne peuvent pas utiliser un “outil de décision d’emploi automatisé” (AEDT) à moins que (i) l’outil ait subi un audit de biais au cours de l’année précédente, (ii) les informations sur l’audit soient rendues publiques, et (iii) les candidats (ou employés pour des promotions) reçoivent des avis prescrits.
Pour les grands employeurs, le défi opérationnel est moins de savoir “pouvons-nous faire un audit” que de “pouvoir réaliser un audit qui s’aligne sur le fonctionnement réel de l’outil et son utilisation”, en clarifiant la phase pertinente (filtrage, classement, recommandation), les catégories de données disponibles (et manquantes), et ce qui est publié.
Californie : Régulations sur les “systèmes de décision automatisée” FEHA
Le Conseil des droits civils de Californie a obtenu l’approbation finale pour des régulations qui traitent du risque de discrimination lié à l’IA/algorithmes/systèmes de décision automatisés, avec une date d’entrée en vigueur au 1er octobre 2025. L’objectif déclaré n’est pas de créer un nouveau régime anti-discrimination, mais de clarifier comment les principes existants de la Fair Employment and Housing Act (FEHA) s’appliquent lorsque des décisions d’embauche, de promotion et autres sont prises ou influencées par des systèmes automatisés.
Illinois : deux régimes différents à distinguer
Illinois est notable car il a (au moins) deux voies différentes, facilement confondues. Pour les grands employeurs, le point important est la gouvernance : s’assurer que la pile technologique RH est inventoriée pour savoir quels outils sont “analyse d’entretien vidéo”, “classement de CV”, “notation d’évaluation”, et “automatisation de flux de travail”, car différentes obligations peuvent être déclenchées selon la fonctionnalité.
Colorado : obligations de “systèmes d’IA à haut risque” et devoirs de discrimination algorithmique
La loi SB 24-205 du Colorado, qui doit entrer en vigueur cette année, établit des obligations pour les développeurs et déployeurs de systèmes d’IA “à haut risque” utilisés pour prendre ou influencer substantiellement des décisions “conséquentielles”, y compris des décisions liées à l’emploi. La législature du Colorado décrit les devoirs des employeurs, y compris le soin raisonnable pour protéger les consommateurs des risques connus ou raisonnablement prévisibles de discrimination algorithmique, et envisage un cadre de conformité avec documentation et avis.
4. Clarification plutôt que création de nouveaux régimes
New Jersey : La Division des droits civils du New Jersey a publié des directives formelles précisant que la Loi contre la discrimination du NJ peut s’appliquer à la discrimination algorithmique, y compris lorsque les outils créent un impact disparate ou entravent les accommodations.
Oregon : Le Procureur général de l’Oregon a également publié des directives soulignant que les entreprises utilisant l’IA doivent toujours se conformer aux lois existantes de l’Oregon (protection des consommateurs, vie privée et autres exigences), plaçant l’IA comme un multiplicateur de risque plutôt que comme un silo légal distinct.
5. Programmes de conformité pratiques pour les grands employeurs en 2026
Pour les conseillers juridiques internes, l’objectif n’est pas de prouver que l’IA est juste dans l’abstrait, mais de créer un système défendable qui réduit la probabilité de résultats discriminatoires et améliore votre posture en matière de litige/réglementation en cas de contestation.
Commencez par un inventaire. Documentez chaque outil qui filtre, classe, recommande, programme, évalue ou oriente des candidats — y compris des moteurs de règles “simples” et des plugins tiers. Ensuite, classez les outils par leur influence sur les résultats (informationnelle vs. déterminante). Cette classification est cruciale dans les arguments de style agence et dans les cadres “à haut risque” des États.
Établissez un cycle de test et de suivi répétable. Traitez l’analyse de l’impact adverse comme un contrôle récurrent, pas comme un projet ponctuel. L’EEOC a explicitement lié les outils d’embauche assistés par IA aux concepts d’impact disparate. En pratique, les employeurs devraient (i) tester à chaque étape de sélection, (ii) documenter les seuils et les déclencheurs d’escalade, et (iii) conserver les versions antérieures des modèles et configurations pour expliquer les changements au fil du temps.
Intégrez les accommodations dans le flux de travail, pas comme une réflexion après coup. Le risque ADA est souvent opérationnel : un candidat ne peut pas compléter une évaluation chronométrée, un outil d’entretien vidéo exclut des modèles de discours ou un système automatisé rejette des parcours professionnels non standards qui se corrèlent avec un handicap. Intégrez (et documentez) un chemin d’accommodation raisonnable et une méthode d’évaluation alternative.
Répartissez le risque de manière appropriée dans les contrats fournisseurs. En plus des clauses de sécurité/privacité, les termes des fournisseurs devraient aborder : la transparence sur les fonctionnalités utilisées ; la coopération lors des audits ; la conservation des documents ; l’allocation de la responsabilité pour les divulgations spécifiques à la juridiction (par exemple, NYC) ; et l’accès aux preuves de validation.
Alignez un dossier prêt pour les litiges. Les plaignants chercheront : (a) les entrées/features des modèles, (b) la documentation de formation/validation, (c) les analyses d’impact adverse, (d) les pratiques de dépassement humain et (e) les communications avec les fournisseurs. Le litige Mobley montre que ces affaires sont jugées avec l’attente d’une découverte approfondie et d’une exposition potentielle agrégée.
Résumé
En 2026, la question est de savoir si vous pouvez démontrer une gouvernance sur les procédures de sélection automatisées qui est proportionnelle à leur influence sur les résultats d’embauche. La posture la plus défendable pour un grand employeur est de traiter le recrutement assisté par l’IA comme un système de sélection réglementé afin que, lorsque le défi inévitable se présente (d’un candidat, d’un régulateur ou d’un avocat de classe), vous puissiez documenter adéquatement les processus.
