Conflits des Politiques sur l’IA au Travail : Impact et Réglementation

Naviguer dans l’IA au travail lorsque les politiques fédérales et étatiques s’opposent

Les législateurs aux niveaux étatique, fédéral et local adoptent des législations visant à comprendre ou à réguler l’utilisation de l’intelligence artificielle (IA) dans les décisions liées à l’emploi.

Les employeurs doivent être conscients de deux des efforts les plus récents qui rejoignent ce débat : un projet de loi bipartite au Sénat américain qui exigerait que certaines entreprises rendent compte régulièrement des décisions de personnel influencées par l’IA, et un projet de loi bipartite à la Chambre des représentants qui exigerait une supervision humaine et la divulgation des outils d’IA utilisés dans les décisions d’emploi.

Ces propositions du Sénat et de la Chambre, ainsi que la législation étatique, pourraient entrer en conflit avec le récent décret exécutif de la Maison Blanche appelant à un cadre national de régulation de l’IA minimalement contraignant.

Le projet de loi du Sénat : mises à jour trimestrielles sur l’impact de l’IA sur la main-d’œuvre

Le 5 novembre, les sénateurs Josh Hawley et Mark Warner ont introduit le AI-Related Job Impacts Clarity Act, affirmant la nécessité d’une plus grande transparence sur l’impact de l’IA sur la main-d’œuvre.

Ce projet de loi exigerait que les entités concernées soumettent des rapports trimestriels au Département du Travail des États-Unis, identifiant le nombre d’employés licenciés en raison de l’automatisation par l’IA, le nombre d’employés embauchés grâce à l’adoption de l’IA, et le nombre de postes vacants non pourvus en raison de remplacements ou d’automatisations liés à l’IA.

Les employeurs devraient également rapporter le nombre d’employés ayant été requalifiés à cause de l’IA, ainsi que toute information supplémentaire requise par le secrétaire au travail.

Le projet de loi stipule que ces divulgations doivent être faites par les entreprises cotées en bourse et le gouvernement fédéral, ainsi que par un certain nombre d’entreprises non cotées, dont la définition sera établie par des réglementations à émettre dans les 180 jours suivant l’adoption.

Ce que cela signifierait pour les employeurs

Bien que le projet de loi du Sénat soit encore loin de l’adoption, les employeurs doivent envisager leur capacité à répondre à ces obligations de rapport.

Qui est responsable de déterminer si l’IA affecte de manière significative les décisions de personnel ? Les employeurs doivent désigner une équipe ou une personne responsable de ces évaluations pour garantir la cohérence.

Comment un employeur déterminera-t-il que l’IA affecte substantiellement les décisions de personnel ? Cela peut être complexe, car plusieurs facteurs nuancés peuvent influencer les licenciements ou les embauches.

Les systèmes internes des employeurs permettent-ils de suivre l’impact de l’IA sur les décisions de personnel ? Une documentation solide pourrait être essentielle pour prouver la conformité.

Le projet de loi de la Chambre : supervision humaine et divulgation des outils d’IA dans l’emploi

En réponse à la poussée du Sénat pour collecter des informations sur l’utilisation de l’IA par les employeurs, un petit groupe bipartite a introduit le No Robot Bosses Act of 2025.

Si le projet de loi est adopté, il s’appliquerait aux employeurs comptant 11 employés ou plus et exigerait, entre autres, que les employeurs :

  • Auditent leurs outils d’IA pour des problèmes tels que la discrimination et les préjugés, avant leur utilisation et périodiquement ;
  • Fournissent une supervision humaine indépendante des informations et décisions générées par les outils d’IA ;
  • Divulguer l’utilisation des outils d’IA dans les décisions liées à l’emploi aux employés.

Législations étatiques concernant l’IA

Plusieurs juridictions, y compris la Californie, le Colorado, l’Illinois, la ville de New York et le Texas, ont déjà adopté des lois concernant l’impact de l’IA sur l’emploi.

Ces lois interdisent généralement l’utilisation de l’IA de manière discriminatoire et exigent que les employeurs notifient les employés et candidats de leur utilisation de l’IA dans les décisions d’embauche.

Par exemple, la loi de la ville de New York interdit l’utilisation d’un outil d’IA s’il n’a pas été soumis à un audit de biais spécifique dans l’année précédente.

Le décret exécutif de la Maison Blanche

En parallèle, la Maison Blanche a émis un décret exécutif critiquant la régulation excessive des États concernant l’IA, soulignant la nécessité d’un cadre national de politique de l’IA.

Ce décret vise à dissuader les régulations étatiques sur l’IA qui pourraient nuire à l’innovation. Il demande la création d’une task force judiciaire sur l’IA pour contester les législations étatiques jugées contraires aux objectifs nationaux.

Conclusion

Le projet de loi du Sénat et le No Robot Bosses Act illustrent un intérêt bipartite pour comprendre l’impact de l’IA sur les travailleurs et pour établir des garde-fous sur son utilisation par les employeurs.

Bien que l’adoption de ces propositions soit incertaine, les employeurs bénéficieraient de surveiller proactivement leur utilisation de l’IA et de rester informés des mises à jour des lois fédérales et étatiques.

Scroll to Top