Rapport sur les Risques et la Préparation à l’IA 2026
Pour la plupart des organisations, 2026 marque l’année où l’IA devient une infrastructure. Les agents exécutent désormais des actions de manière autonome : modification de dossiers, création de comptes et envoi de code via des appels API qui se terminent avant toute revue humaine. Cela fait de chaque déploiement d’IA un risque de sécurité, que les organisations le considèrent comme tel ou non.
Les infrastructures de sécurité dans la plupart des organisations aujourd’hui ont été conçues pour un monde différent : un monde où les humains étaient les seuls acteurs, où les processus étaient déterministes et où la confiance était vérifiée au niveau du navigateur. Ce monde n’existe plus.
Constatations Clés
- 73% des organisations interrogées ont déployé des outils d’IA, mais seulement 7% disposent d’une gouvernance qui renforce la sécurité et les politiques en temps réel, laissant un déficit structurel de 66 points.
- 90% des organisations ont augmenté leur budget de sécurité pour l’IA cette année, mais 29% se sentent moins en sécurité qu’il y a douze mois.
- 94% des répondants signalent des lacunes dans la visibilité des activités liées à l’IA.
- 53% des outils d’IA ont un accès d’écriture à des outils de collaboration, et 91% des organisations ne découvrent les actions d’un agent qu’après leur exécution.
Les Lacunes de la Gouvernance de l’IA
Il y a un an, la plupart des organisations considéraient la gouvernance de l’IA comme une priorité future. Aujourd’hui, 68% des organisations décrivent leur gouvernance de l’IA comme réactive ou en développement. Seul 7% a atteint une maturité avancée avec une application des politiques en temps réel.
Ce retard dans la gouvernance a conduit à des déploiements fragmentés d’IA, où plusieurs équipes déploient des outils indépendamment sans cadre partagé ou politiques de sécurité. Près de 48% prévoient que les échecs de gouvernance entraîneront la prochaine violation majeure liée à l’IA.
Augmentation des Budgets, Diminution de la Confiance
Paradoxalement, le fossé de la gouvernance de l’IA existe malgré une augmentation des investissements en sécurité. Bien que 90% des entreprises aient augmenté leur budget de sécurité pour l’IA, 29% signalent une diminution de leur sentiment de sécurité. Les pressions commerciales pour adopter l’IA plus rapidement que la sécurité peut suivre constituent le principal obstacle.
Visibilité Inadéquate des Activités d’IA
La visibilité est la condition préalable à toute autre mesure de contrôle. Seul 6% des organisations rapportent une visibilité complète sur l’utilisation de l’IA. 94% prennent des décisions de sécurité sur l’IA avec une image incomplète.
Agents d’IA Autonomes
Les systèmes d’IA agissent désormais de manière autonome, exposant les organisations à des risques importants. 56% des répondants rapportent une exposition réelle au risque d’IA agentique, avec 24% en production limitée.
Réduction de la Fragmentation des Contrôles
Pour réduire la fragmentation des contrôles, il est essentiel d’unifier les politiques de sécurité afin de permettre une évaluation unique qui prenne en compte la classification du contenu, l’identité de l’utilisateur et le type d’instance d’IA.
Conclusion
La sécurité de l’IA est désormais une discipline opérationnelle. Les actions concrètes pour améliorer la visibilité, la protection des données et la gouvernance des identités non humaines sont essentielles pour fermer les lacunes d’exécution.
