AI au travail : De l’expérimentation à la responsabilité
2026 marque un tournant pour l’IA dans le monde du travail. Après des années de pilotes, de preuves de concept et d’expérimentations prudentes, l’IA passe désormais à un déploiement opérationnel complet. Les outils de recrutement filtrent les candidats à grande échelle, les systèmes de gestion de la performance génèrent des recommandations qui façonnent les carrières, et les analyses de la main-d’œuvre informent les décisions sur la conception des emplois, le redéploiement et la redondance.
Cet enjeu a des conséquences sérieuses pour le monde du travail. Les employés font face à des décisions façonnées par des systèmes d’IA tout en se retrouvant coincés entre un déploiement accéléré et une gouvernance retardée, avec une visibilité limitée sur la manière dont ces décisions sont prises ou contestées. La transition de l’innovation à la responsabilité n’est plus à venir : elle est déjà en cours.
Le fossé entre les personnes et la gouvernance
Le rapport Future @ Work 2026 révèle un déséquilibre frappant : 74 % des employeurs continuent d’investir massivement dans la technologie de l’IA tout en sous-investissant dans les capacités de la main-d’œuvre. De plus, bien que beaucoup reconnaissent l’importance des compétences centrées sur l’humain, telles que la pensée critique, le jugement éthique, la créativité ou la collaboration interfonctionnelle, bien moins d’attention est accordée à la construction de la capacité organisationnelle nécessaire pour gouverner l’IA en pratique.
Ce n’est pas simplement une question de compétences, mais un véritable défi de gouvernance. Une surveillance efficace dépend de personnes qui comprennent comment fonctionnent les systèmes d’IA, où se trouvent leurs limites et comment le risque peut se manifester dans des contextes réels. Cela nécessite donc des responsables capables d’interroger les recommandations algorithmiques plutôt que de s’y soumettre, ainsi que des équipes RH capables d’expliquer comment les décisions assistées par l’IA sont prises, et des dirigeants capables d’identifier quand ces processus échouent.
Sans cette capacité, les cadres de gouvernance restent largement théoriques. Les politiques peuvent exister sur le papier mais peinent à façonner les comportements en pratique. De même, les risques peuvent être formellement reconnus mais mal compris et insuffisamment traités. Et lorsque les régulateurs, les tribunaux ou les employés posent des questions sur la manière dont les décisions ont été prises, les organisations risquent de se retrouver incapables de fournir des réponses crédibles.
Le mirage de la régulation
Le rapport Managing the Machine d’Ius Laboris détaille comment, face à cette incertitude, certains employeurs ont choisi d’attendre. Avec des cadres réglementaires encore en évolution, l’instinct de suspendre l’investissement dans la gouvernance jusqu’à ce que les règles soient établies est compréhensible.
Cependant, cette approche interprète mal à la fois le paysage réglementaire et la nature de la conformité. Bien que la Loi IA de l’UE soit désormais en vigueur et que d’autres juridictions développent leurs propres approches, la réglementation complète reste inégale sur les marchés. Plus fondamentalement, la législation seule ne crée pas une bonne gouvernance.
Managing the Machine fournit des exemples utiles provenant de plusieurs juridictions montrant que les règles ne sont efficaces que si elles sont soutenues par une capacité institutionnelle et organisationnelle. Là où l’application est limitée ou la capacité interne est faible, même des lois bien conçues peinent à produire des résultats significatifs. La réglementation, par conséquent, peut établir des attentes, mais ne peut pas remplacer les systèmes internes, le jugement des dirigeants et la compréhension de la main-d’œuvre.
Pour les employeurs, en particulier ceux qui opèrent au niveau international, les implications sont claires : attendre une certitude réglementaire est peu susceptible de réduire le risque, et les organisations les mieux placées pour naviguer dans cette transition sont celles qui construisent dès maintenant leurs propres fondations de gouvernance, ancrées dans des principes pouvant s’adapter à travers les juridictions plutôt que de s’appuyer sur la conformité comme dernière étape.
Ce que les employeurs devraient prioriser
Malgré la variation réglementaire, les défis fondamentaux auxquels les employeurs sont confrontés restent remarquablement constants. À travers les régions, par exemple, les mêmes questions se répètent : comment garantir la transparence ? Comment expliquer les décisions assistées par l’IA ? Comment identifier et atténuer les biais ? Et comment maintenir une surveillance humaine significative.
Cette constance crée une opportunité. Plutôt que de développer des réponses fragmentées pour chaque juridiction, les employeurs peuvent établir une base de gouvernance commune qui répond à des attentes réglementaires élevées tout en restant adaptable aux exigences locales.
En pratique, cela signifie se concentrer sur quatre domaines :
- Tout d’abord, des politiques claires sur l’IA et des cadres d’utilisation acceptables. Les employés ont besoin d’orientations pratiques sur les outils qu’ils peuvent utiliser, à quelles fins et avec quelles garanties. Cela est particulièrement important à mesure que les outils d’IA générative deviennent intégrés dans le travail quotidien, souvent au-delà de la visibilité des équipes juridiques ou informatiques.
- Deuxièmement, un investissement soutenu dans le développement des capacités. La gouvernance dépend des personnes, pas des documents. La littératie en IA pour les professionnels des RH, les managers, les équipes d’approvisionnement et les employés est fondamentale, pas optionnelle.
- Troisièmement, des processus robustes de sélection et d’approvisionnement des fournisseurs. La plupart des systèmes d’IA en milieu de travail sont achetés plutôt que développés en interne. Les employeurs doivent comprendre comment les outils fonctionnent, quelles données ils utilisent et quelles protections contractuelles sont nécessaires pour soutenir la transparence et la responsabilité au fil du temps.
- Enfin, et peut-être le plus important, des mécanismes de surveillance humaine significatifs. Les régulateurs et les tribunaux s’attendent de plus en plus à des preuves que des humains restent véritablement en contrôle des décisions conséquentes. Cela nécessite d’aller au-delà de simples étapes de révision formelles pour construire la capacité et la confiance nécessaires pour questionner, contester et annuler les résultats algorithmiques lorsque cela est approprié.
De la préparation à la responsabilité
Alors que le paysage réglementaire continue d’évoluer et que l’environnement dans lequel les organisations opèrent devient de plus en plus imprévisible, la fenêtre pour une préparation réfléchie se rétrécit. Les organisations qui considèrent la gouvernance de l’IA comme un exercice de conformité ou qui retardent l’action jusqu’à ce que la réglementation les y oblige risquent de se retrouver exposées à mesure que l’utilisation de l’IA devient plus visible et plus conséquente.
Celles qui investissent maintenant dans les personnes, les capacités et les structures de gouvernance seront mieux placées pour gérer le risque, débloquer de la valeur et maintenir la confiance. L’IA dans le monde du travail n’est plus expérimentale. La question pour les employeurs est de savoir si leur gouvernance a évolué suffisamment rapidement pour correspondre à son impact.
Téléchargez notre dernier rapport – Future @ Work 2026 : Construire pour la préparation future
Lisez Ius Laboris – Managing the Machine
