LexisNexis Future of Work Report 2026
Le rapport Future of Work 2026 de LexisNexis® révèle que l’adoption de l’IA générative (genAI) connaît une forte croissance, transformant rapidement les flux de travail professionnels. Cette étude mondiale, menée auprès de 1 400 professionnels dans plus de 20 industries, souligne que l’adoption de l’IA générative progresse plus rapidement que les politiques et la surveillance, créant un besoin croissant de contrôles de niveau entreprise pour soutenir une croissance durable et responsable.
Adoption rapide et nouvelles exigences de gouvernance
Alors que l’IA générative passe de l’expérimentation à un usage routinier, la surveillance formelle reste inégale :
- 53% des professionnels rapportent utiliser l’IA générative sans approbation formelle.
- 28% affirment que leur organisation n’a pas de politique formelle sur l’IA générative.
- 55% paient personnellement pour des outils d’IA générative, dont 60% les utilisent pour le travail.
- 19% n’ont reçu aucune formation sur l’IA.
Ces tendances suggèrent que l’IA avance au sein des organisations plus rapidement que les contrôles d’entreprise ne sont établis.
Confiance croissante face aux lacunes de gouvernance
Le rapport met en lumière un écart croissant entre les niveaux de confiance des utilisateurs et la maturité de la surveillance organisationnelle :
- 64% des professionnels se disent très ou extrêmement confiants dans l’utilisation responsable de l’IA générative.
- 74% de ceux qui ont reçu une formation obligatoire sur l’IA rapportent encore une utilisation non autorisée.
- 51% des organisations affirment avoir lancé des agents internes d’IA.
- Seulement 44% des employés comprennent clairement ce que sont ces agents d’IA ou comment ils fonctionnent.
À mesure que les systèmes d’IA générative deviennent plus autonomes, l’accent de la direction se déplacera de la capacité à la responsabilité et à la mise en place de garde-fous appropriés.
L’importance de la validation humaine
Malgré l’autonomie croissante des systèmes d’IA, les professionnels soulignent l’importance de la validation humaine :
- 65% des professionnels estiment que la validation humaine est très ou extrêmement importante.
- 56% croient que les humains doivent rester impliqués à chaque étape.
- Seulement 9% soutiennent une supervision humaine minimale.
Les données renforcent que l’efficacité de l’IA dépend d’une validation structurée, d’une supervision par paliers de risque et de cadres politiques clairs.
Feuille de route pratique pour les dirigeants
Pour aider les organisations à traduire ce momentum initial en valeur durable, le rapport décrit 10 actions immédiates que les dirigeants peuvent entreprendre pour renforcer la surveillance et réduire les risques :
- Établir des conseils de gouvernance de l’IA interfonctionnels.
- Réaliser des audits de l’utilisation de l’IA à l’échelle de l’entreprise.
- Publier des politiques claires et applicables sur l’IA.
- Déployer des outils d’IA sécurisés et de niveau entreprise.
- Mettre en œuvre des protocoles de validation par paliers de risque.
La recherche identifie également cinq éléments intégrés nécessaires pour une adoption responsable de l’IA en entreprise : formation complète, politiques claires, outils validés, processus de validation et soutien continu.
Alors que l’IA générative continue de redéfinir la manière dont le travail est effectué, les organisations qui alignent l’innovation sur des données fiables, des flux de travail structurés et une gouvernance claire seront les mieux positionnées pour développer leur expertise, accroître leur productivité et réaliser des retours durables.
