Réglementation de l’utilisation de l’IA par les employeurs pour les décisions salariales
Alors que les employeurs continuent de trouver de nouvelles façons d’utiliser des outils et logiciels d’intelligence artificielle (IA) pour soutenir leurs opérations commerciales, les législateurs des États ont commencé à prêter attention à cette question. En particulier, ils examinent de plus en plus l’utilisation de l’IA et des outils de décision automatisée par les employeurs pour établir ou influencer la rémunération des employés, dans le but déclaré de réduire les impacts potentiellement discriminatoires résultant de l’utilisation de systèmes algorithmiques de fixation des salaires et d’accroître la transparence pour les employés et les candidats concernant l’utilisation de cette technologie.
Activité législative récente
Plusieurs États, dont la Californie, le Colorado, la Géorgie et l’Illinois, ont introduit des projets de loi en 2025 cherchant à établir des paramètres sur les décisions de rémunération pilotées par l’IA. Les législateurs de New York et du Maryland ont poursuivi cette tendance en janvier 2026, en introduisant des projets de loi contenant des restrictions similaires.
Bien que ces lois proposées ne soient pas toutes identiques, elles partagent des caractéristiques communes. D’abord, elles définissent les « systèmes de décision automatisés » comme des systèmes, logiciels ou processus, y compris ceux qui s’appuient sur des techniques d’apprentissage automatique ou d’IA, utilisés pour aider ou remplacer la prise de décision humaine. Dans le contexte de l’emploi, ces définitions englobent les outils et logiciels de ressources humaines automatisés qui utilisent des règles prédéfinies pour traiter des données via des algorithmes et aider à la réalisation des fonctions des ressources humaines.
Risques juridiques associés aux décisions de rémunération pilotées par l’IA
Les législateurs plaidant pour ces lois ont souligné que l’utilisation non réglementée de l’IA par les employeurs dans les décisions de rémunération peut entraîner des résultats discriminatoires. En effet, ces décisions peuvent être couvertes et actionnables en vertu d’une variété de lois sur l’emploi, y compris le Titre VII de la Loi sur les droits civils, la Loi sur les Américains handicapés, la Loi sur la discrimination en matière d’âge et la Loi sur l’égalité de rémunération.
La nature même des systèmes de décision automatisés crée des risques juridiques uniques pour les employeurs, notamment en ce qui concerne la rémunération des employés. Un défi clé est le manque de transparence sur la manière dont ces outils arrivent à leurs conclusions ou recommandations. Alors que les décideurs humains peuvent expliquer le raisonnement derrière les décisions de rémunération, il est difficile — et parfois impossible — de discerner le raisonnement sous-jacent aux décisions prises par certains outils d’IA. Cela expose les employeurs à des contestations juridiques concernant ces décisions.
Considérations pour les employeurs
Pour l’instant, les employeurs doivent s’assurer de respecter les lois fédérales et étatiques applicables, en vigueur ou à venir en 2026. Cela inclut au minimum l’identification de chaque outil d’IA utilisé dans la prise de décision en matière d’emploi ainsi que l’évaluation réglementaire de ces outils par les lois locales.
Ils devraient également établir et appliquer une politique complète d’IA décrivant les procédures internes pour son utilisation, fournissant les avis requis aux employés et candidats, et imposant une supervision humaine des recommandations issues de l’IA.
À l’avenir, les employeurs devront suivre activement les évolutions législatives et réglementaires fédérales, étatiques et locales gouvernant l’utilisation de l’IA dans les décisions de rémunération et autres conditions d’emploi. En procédant à des audits proactifs et en favorisant une implication humaine transparente, ils minimiseront les risques juridiques et s’adapteront aux exigences réglementaires en évolution.
