Les règles régissant le patron algorithmique : lois sur l’emploi AI des États, menaces de préemption fédérale et la vague de litiges à venir
Plusieurs lois sur l’emploi liées à l’IA des États — en Illinois, au Texas et au Colorado — sont en vigueur ou le seront cette année, imposant des audits de biais, des exigences de notification, des droits d’appel et des évaluations d’impact aux employeurs utilisant l’IA pour les décisions de ressources humaines. Parallèlement, l’Ordre Exécutif 14365 de la Maison Blanche, émis en décembre 2025, a ordonné la création d’une nouvelle Task Force de litige AI pour contester les lois étatiques considérées comme “contraignantes” et incompatibles avec un cadre national minimal sur l’IA. Cela conduit à un conflit constitutionnel qui influencera directement la manière dont les employeurs conçoivent et déploient des outils de recrutement algorithmique.
Le nouveau patchwork : trois États, trois approches
Le cadre émergent au niveau des États pour régir l’IA dans les décisions d’emploi n’est pas uniforme.
L’Artificial Intelligence Act du Colorado (SB 24-205) impose des obligations aux “développeurs” et “déployeurs” de systèmes IA à haut risque utilisés pour les décisions d’emploi. Avec une mise en œuvre prévue au 30 juin 2026, la loi exige des programmes de gestion des risques, des évaluations d’impact annuelles, une notification aux travailleurs pour les décisions importantes, ainsi qu’une notification au Procureur Général dans les 90 jours suivant la découverte de discriminations algorithmiques.
Le HB 3773 de l’Illinois modifie la Loi sur les Droits de l’Homme de l’État, effective au 1er janvier 2026, pour couvrir explicitement la discrimination médiée par l’IA. Les employeurs ne peuvent pas utiliser d’IA ayant “l’effet” de soumettre employés ou candidats à de la discrimination durant tout le cycle de vie de l’emploi, du recrutement à la résiliation.
La Responsible Artificial Intelligence Governance Act (TRAIGA) du Texas, également effective le 1er janvier 2026, adopte la position la plus restrictive. Elle interdit les systèmes d’IA développés ou déployés avec l’intention de discriminer illégalement, précisant que l’impact disparate seul n’est pas une violation. L’application dépend uniquement du Procureur Général du Texas, sans droit d’action privée et avec une période de correction de 60 jours.
Ces trois lois illustrent des approches différentes : le Colorado exige une gouvernance proactive, l’Illinois codifie une norme d’impact disparate, et le Texas limite la responsabilité à la discrimination intentionnelle. Ceci s’ajoute à d’autres amendements législatifs, comme à la FEHA californienne, rendant le paysage réglementaire encore plus complexe.
La contre-mesure fédérale : Ordre Exécutif 14365 et la Task Force de litige AI
Dans ce contexte fragmenté, la Maison Blanche a lancé un défi constitutionnel. L’Ordre Exécutif 14365 dirige le Procureur Général à créer une Task Force de litige AI avec la responsabilité exclusive de contester les lois étatiques jugées incompatibles avec la politique fédérale, notamment sur la base de la préemption ou de la clause de commerce dormant.
Cette ordonnance ordonne aussi que le Secrétaire au Commerce publie, d’ici mars 2026, une évaluation des lois étatiques susceptibles de faire l’objet de contestations fédérales.
Les fondements juridiques de ces litiges fédéraux comprennent la préemption par obstacle ou conflit, les défis basés sur la clause de commerce dormant pour les lois à portée extraterritoriale, ainsi que des arguments du Premier Amendement sur les obligations de divulgation vues comme un discours forcé. Cependant, des défenses solides soutiennent également la gouvernance étatique de l’IA.
Il est important de noter que la législation fédérale relative à la discrimination en emploi régit déjà les outils de recrutement IA via les directives de l’EEOC sous le Titre VII, ADA et ADEA. Ces dernières mettent l’accent sur l’impact disparate, les accommodations raisonnables, et la transparence dans les décisions défavorables, formant ainsi un socle fédéral essentiel indépendamment de la préemption d’États.
Pris entre deux feux : que doivent faire les employeurs maintenant ?
Ce conflit fédéral-étatique crée un dilemme de conformité majeur. Les employeurs investissant dans une gouvernance rigoureuse comme exigée par le Colorado pourraient voir ces obligations suspendues ou modifiées par la justice fédérale. Ceux qui attendent risquent des poursuites par les procureurs généraux et des actions privées en discrimination, utilisant ces lois comme standard, même si elles ne prévoient pas de droit d’action privé.
La meilleure approche est un cadre de conformité basé sur le “plus haut dénominateur commun”. Cela implique d’instaurer une gouvernance centrale de l’IA avec des tests indépendants de biais, documentation d’explicabilité, et revue humaine des décisions défavorables. Ce cadre doit répondre aux normes les plus strictes (Colorado, Illinois) tout en restant adaptable aux régimes plus restrictifs comme le Texas, et intégré aux rapports et évaluations par État.
Il est aussi crucial de revoir les contrats avec les fournisseurs AI dès maintenant, car ces derniers peuvent être soumis à des obligations strictes en tant que “développeurs” selon la réglementation du Colorado. Les responsabilités partagées pour les tests de biais, l’accès aux données et le reporting des incidents doivent être clairement définies.
Enfin, surveillez étroitement les priorités de la Task Force du DOJ et l’évaluation à paraître du ministère du Commerce. Préparez des scénarios pour gérer la possible invalidation de certaines exigences étatiques tout en maintenant d’autres en vigueur. La question constitutionnelle est fascinante, mais les enjeux pratiques pour le prochain cycle de recrutement sont immédiats.
Points clés à retenir :
- La conformité ne peut pas attendre une clarté constitutionnelle. Les lois étatiques sur l’emploi AI sont en vigueur, et retarder les investissements expose à des poursuites et litiges, malgré les contestations fédérales.
- Le patchwork législatif nécessite une approche basée sur le “plus haut dénominateur commun”. Construire selon la norme la plus exigente et s’adapter ensuite est plus efficace que d’avoir des silos de conformité par juridiction. Documentez soigneusement votre conformité pour prouver sa raison dans tous les scénarios.
- Les contrats fournisseurs sont votre première ligne de défense. Avec des obligations possibles directes sur les fournisseurs, répartissez bien les responsabilités pour les audits, accès aux données et rapports d’incidents dans vos accords, notamment pour les outils tiers.
