Responsabilité de l’IA : 4 enseignements clés pour les employeurs

Ce que signifie l’utilisation responsable de l’IA pour les employeurs : 4 points clés issus du témoignage récent à Capitol Hill

Les efforts à Capitol Hill pour réguler la technologie de l’intelligence artificielle ressemblent à frapper une vague avec une batte de wiffle. C’est le message que Dave Walton, partenaire chez Fisher Phillips et co-président de l’équipe IA, données et analyses, a présenté à la Commission de l’éducation et de la main-d’œuvre de la Chambre des représentants des États-Unis. Lors d’une audience sur « Construire une Amérique prête pour l’IA : adopter l’IA au travail », Walton a souligné que l’IA est susceptible de créer plus d’emplois qu’elle n’en déplace.

Voici quatre principaux enseignements du témoignage de Walton sur la réglementation de l’IA pour aider votre entreprise à rester en avance alors que la technologie évolue.

1. Les innovations technologiques passées ont conduit à la croissance des emplois

Walton a mentionné que l’intégration de l’intelligence artificielle dans notre économie suivra probablement le même schéma que les précédentes révolutions technologiques. Bien que certains travailleurs puissent ne plus être nécessaires pour certaines tâches, l’histoire montre que l’IA augmentera en réalité les opportunités d’emploi.

Le paradoxe de Jevons explique que l’amélioration de l’efficacité réduit les coûts, ce qui accroît la demande et, en fin de compte, augmente le niveau d’emploi global, même si certaines tâches nécessitent moins d’effort humain. Cette tendance a caractérisé chaque grande technologie d’automatisation depuis la Révolution industrielle.

Walton a mis en garde les législateurs contre une réglementation trop réactionnelle qui pourrait dissuader les employeurs de déployer la technologie, limitant ainsi l’accès des travailleurs à l’IA.

2. Vos obligations légales n’ont pas changé

Les employeurs, les régulateurs et les défenseurs doivent garder à l’esprit que les droits des employés en vertu des lois fédérales sur la négociation collective, la sécurité au travail ou le salaire minimum s’appliquent toujours, même en cas d’utilisation de l’IA.

Par exemple, la surveillance ciblant les activités syndicales viole la loi, quel que soit le moyen utilisé. Cependant, la surveillance pour la sécurité, la conformité, la productivité ou la qualité est généralement légale et peut être extrêmement bénéfique pour les employés et votre entreprise.

La transparence des politiques et des barrières contre la surveillance des activités syndicales protégées est essentielle. L’objectif doit être de garantir que la surveillance a des buts légitimes, fonctionne de manière ouverte, reste proportionnée aux besoins de l’entreprise et inclut de véritables garanties contre les abus.

3. L’IA est déjà utilisée sur le lieu de travail pour gérer les risques et améliorer la conformité

L’IA ne se limite pas aux chatbots ou aux outils génératifs tels que ChatGPT. Les employeurs utilisent déjà la technologie IA pour améliorer le recrutement des talents et personnaliser l’intégration des employés, ainsi que pour surveiller les horaires et les pratiques de compensation.

L’IA peut également grandement améliorer les pratiques de sécurité, par exemple, en s’assurant que les équipements de protection individuelle sont correctement portés, en surveillant les dangers environnementaux ou en alertant les superviseurs des limites d’exposition.

Sécurité d’abord : « Étant donné que les coûts directs et indirects moyens d’une blessure au travail se chiffrent à plus de 80 000 dollars, les organisations peuvent souvent justifier les programmes de sécurité basés sur l’IA en prévenant juste quelques incidents par an », selon Walton.

4. Les employeurs avisés adoptent des structures de gouvernance pour leurs systèmes d’IA

Les thèmes communs parmi les plans de conformité des entreprises en matière d’IA incluent des pratiques de divulgation, une supervision inter-équipes et des audits pour détecter les biais et les risques liés à la confidentialité des données, entre autres contrôles.

De nombreuses entreprises ont adopté des politiques proactives, telles que la nécessité d’impliquer des humains dans les décisions d’emploi majeures, d’assurer une formation approfondie des employés sur les outils d’IA utilisés dans le cadre de leur travail et de disposer d’un plan de réponse aux incidents en cas de dysfonctionnement de l’IA.

Adoptez une approche proactive : Walton a souligné l’importance pour les employeurs de se réguler eux-mêmes, car « s’ils ne prennent pas de mesures pour se gouverner, quelqu’un le fera ».

Conclusion

Pour plus d’informations, écoutez le témoignage de Dave du 3 février 2026 devant la Commission de l’éducation et de la main-d’œuvre des États-Unis ou lisez le transcript complet.

Scroll to Top