IA dans le lieu de travail : emplois, réglementation et l’argument en faveur de normes fédérales
À travers le pays, les législatures des États avancent rapidement pour réguler l’intelligence artificielle (IA) dans le lieu de travail. Le projet de loi californien SB 947 – les Systèmes de Décision Automatisés au Travail – présenté le 2 février 2026, en est un exemple marquant, mais il fait partie d’une tendance plus large : des lois qui cherchent à gouverner comment les employeurs peuvent adopter, déployer et s’appuyer sur des outils basés sur l’IA lors de la prise de décisions liées à l’emploi.
D’autres propositions législatives liées à l’IA soulignent la rapidité avec laquelle ce mouvement s’accélère. Par exemple, le SB 951 – la Loi sur le Déplacement Technologique des Travailleurs en Californie – exigerait des employeurs qu’ils fournissent un préavis d’au moins 90 jours avant les licenciements causés par un “déplacement technologique”. De plus, la Fédération du Travail de Californie a déclaré publiquement qu’elle parrainera ou soutiendra plus de deux douzaines de projets de loi cette année, axés sur l’impact de l’IA sur les travailleurs en Californie.
Une tension politique non résolue
Bien que ces projets de loi soient généralement présentés comme des mesures de protection des travailleurs, ils reflètent une tension politique plus profonde et non résolue : la question de savoir si l’IA dans le lieu de travail doit être régulée de manière fragmentée au niveau des États ou si une régulation doit se faire au niveau fédéral pour éviter un patchwork de règles qui pourrait entraver l’innovation, l’adoption et la croissance économique.
En utilisant le SB 947 comme étude de cas, il devient clair que beaucoup de ces propositions partent des mêmes hypothèses et soulèvent les mêmes problèmes structurels.
Les objectifs de la réglementation
Au niveau élevé, des projets de loi comme le SB 947 cherchent à réguler l’utilisation par les employeurs de systèmes de décision automatisés (SDA) – un terme défini si largement qu’il peut englober des outils basés sur l’IA, des logiciels d’analyse, des systèmes de notation et d’autres technologies utilisées pour assister les décisions d’emploi. L’étendue de l’activité régulée s’étend généralement bien au-delà de l’embauche et du licenciement pour inclure la planification, la rémunération, l’évaluation des performances, les affectations de travail et la discipline.
Par exemple, en vertu du SB 947, les employeurs seraient interdits de s’appuyer uniquement sur un système automatisé pour les décisions disciplinaires ou de licenciement et seraient tenus de mener une “enquête indépendante” humaine pour corroborer toute production générée par l’IA. Des propositions similaires imposent des restrictions sur les types de données qui peuvent être utilisées, interdisent l’analyse prédictive des comportements et interdisent l’utilisation de systèmes qui pourraient inférer des caractéristiques protégées.
Nouvelles obligations de notification et de divulgation
Ces projets de loi créent également de nouvelles obligations de notification et de divulgation. Si un outil assisté par l’IA est utilisé dans le cadre de la discipline ou du licenciement, les employeurs peuvent être tenus de fournir des avis écrits après utilisation, d’identifier les fournisseurs, d’expliquer les processus de révision humaine et de produire des données d’entrée, de sortie, des matériaux corroborants et des évaluations d’impact sur demande.
Les mécanismes d’application tendent à être expansifs. En prenant encore une fois l’exemple du SB 947, la conformité serait appliquée non seulement par des agences de travail et des procureurs publics, mais aussi à travers des actions civiles privées avec des honoraires d’avocat et des dommages-intérêts punitifs disponibles. Le résultat n’est pas simplement une régulation technologique, mais un nouveau régime de conformité orienté vers le contentieux superposé à des lois sur l’emploi déjà complexes.
Pourquoi la réglementation au niveau des États est mal alignée
Voici cinq raisons pour lesquelles les efforts de régulation de l’adoption de l’IA par les employeurs – illustrés par le SB 947 – sont mal alignés avec la direction que prend réellement la conversation sur l’IA.
1. La réglementation de l’IA au niveau des États ignore le consensus fédéral croissant
Au niveau fédéral, il y a un accord bipartisan croissant sur un point : une approche État par État de la régulation de l’IA est incompatible avec l’innovation, la conformité et la croissance économique. Bien que le Congrès n’ait pas encore adopté de législation complète sur l’IA, les décideurs fédéraux ont à plusieurs reprises souligné la nécessité d’un cadre national, en particulier pour les technologies déployées à grande échelle.
2. Un patchwork de lois étatiques ne protège pas les travailleurs
Une des ironies de ces propositions est qu’elles peuvent réduire l’équité plutôt que de l’améliorer. Lorsque les employeurs sont découragés d’utiliser des outils standardisés basés sur des données en raison de risques juridiques, la prise de décision ne disparaît pas – elle devient plus subjective.
3. Ces projets de loi supposent que l’impact de l’IA sur les emplois est connu
Les efforts de régulation de l’IA au niveau des États supposent souvent que l’IA est principalement un outil d’élimination d’emplois qui doit être contraint pour protéger les travailleurs. Cette hypothèse est prématurée.
4. La sur-réglementation risque de pousser l’utilisation de l’IA dans l’illégalité
Une autre conséquence involontaire de ces propositions est qu’elles incitent à l’utilisation informelle ou opaque de l’IA. Si le déploiement d’outils d’IA déclenche d’importantes obligations de notification, de droits de divulgation et d’exposition au contentieux, les employeurs peuvent tout de même s’appuyer sur l’IA – mais de manière moins visible et moins documentée.
5. Les États risquent de devenir des cas particuliers
Même si des projets de loi comme le SB 947 sont adoptés, ils ne seront probablement pas le dernier mot. Une législation fédérale sur l’IA – en particulier celle qui prévoit expressément la préemption des lois étatiques conflictuelles – reste une possibilité réaliste.
Conclusion
Le SB 947 est mieux compris comme un exemple d’une tendance législative plus large : les efforts des États pour réguler l’IA dans le lieu de travail avant que ses impacts ne soient pleinement compris. Ces propositions partent souvent d’une hypothèse de préjudice avant preuve, substituent des mandats procéduraux à des résultats substantiels, et négligent le consensus fédéral croissant en faveur de normes uniformes.
Ce que les employeurs doivent faire maintenant
Indépendamment de la manière dont la régulation de l’IA évolue finalement, l’IA est déjà présente dans le lieu de travail – souvent avant que les employeurs ne s’en rendent compte. Le véritable risque pour les employeurs californiens n’est pas l’IA elle-même, mais son utilisation sans politiques claires, formation et garde-fous juridiques.
Pour aider les employeurs à naviguer dans ce paysage en évolution, un masterclass d’une heure est proposé, axé sur l’utilisation pratique et réelle de l’IA dans le lieu de travail californien.
Masterclass : L’IA dans le lieu de travail californien — outils pratiques, cas d’utilisation réels, et garde-fous juridiques
Nous couvrirons comment les employeurs utilisent réellement l’IA aujourd’hui – de l’embauche et la planification à la gestion des performances et la documentation – ainsi que les principales questions juridiques et de conformité à comprendre, y compris l’exposition aux salaires et heures, le risque de discrimination, les préoccupations en matière de confidentialité, et les implications de la PAGA. Les participants repartiront avec des conseils pratiques sur la manière d’utiliser l’IA de manière responsable et de réduire les risques.
