Gestion des risques liés à l’IA : État des lieux 2026

Étude sur la gestion des risques liés à l’IA : État des lieux 2026

SAN FRANCISCO — La communauté Purple Book (PBC) a récemment publié le rapport intitulé État de la gestion des risques liés à l’IA 2026, basé sur une enquête menée auprès de plus de 650 leaders en cybersécurité d’entreprise en Amérique du Nord et en Europe. Ce rapport met en lumière un écart croissant entre la perception de la préparation à la sécurité de l’IA et les angles morts opérationnels créés par l’IA fantôme et les nouvelles vulnérabilités introduites par le développement assisté par l’IA.

Principales conclusions du rapport

Le rapport révèle plusieurs tendances systémiques qui façonnent la sécurité de l’IA dans les entreprises :

  • L’IA fantôme devient la norme : Plus de 59 % des responsables en sécurité confirment ou soupçonnent que des employés utilisent des outils d’IA non approuvés par les équipes informatiques, indiquant que l’adoption décentralisée de l’IA dépasse les processus de gouvernance.
  • Le code généré par l’IA augmente l’exposition aux risques : Près des trois quarts (73 %) des organisations déclarent que le développement assisté par l’IA accélère la vitesse des logiciels au-delà de la capacité de révision des équipes de sécurité, contribuant à la présence généralisée de vulnérabilités dans les systèmes de production.
  • La fragmentation des outils affaiblit la posture de sécurité : Plus de la moitié (51 %) des entreprises utilisent 11 outils de scan de sécurité et de gestion des vulnérabilités ou plus, créant des informations isolées et une complexité opérationnelle qui rendent difficile la priorisation des principaux risques.
  • Les équipes de sécurité sont submergées par le bruit : Près de la moitié (46 %) des répondants déclarent passer beaucoup de temps à traiter des vulnérabilités qui ne présentent finalement pas d’importance, tandis que des problèmes critiques restent enfouis dans des outils déconnectés.

Ces dynamiques créent ce que le rapport appelle le écart de confiance, la distance croissante entre la perception de la préparation à la sécurité de l’IA et la réalité opérationnelle de la gouvernance de l’IA à l’échelle de l’entreprise.

Défis de gouvernance de l’IA

Le rapport souligne que le véritable défi n’est pas l’adoption de l’IA elle-même, mais la gouvernance nécessaire pour la gérer de manière responsable à grande échelle. Alors que l’utilisation de l’IA dans les processus de développement des entreprises devient courante, il est crucial d’améliorer la visibilité et l’intégration des systèmes de sécurité pour éviter un écart encore plus grand entre la conscience des vulnérabilités et le contrôle.

Méthodologie de recherche

L’étude a été réalisée par la communauté Purple Book entre décembre 2025 et février 2026, en interrogeant plus de 650 décideurs en cybersécurité, y compris des CISOs et des directeurs de sécurité, dans divers secteurs tels que les logiciels, les services financiers, la santé, la fabrication et le commerce de détail. Les résultats reflètent les perceptions des répondants à un moment donné et peuvent ne pas représenter pleinement tous les environnements organisationnels.

Cette étude met en lumière la nécessité d’une gouvernance renforcée et d’une visibilité unifiée sur les risques à travers les applications, le cloud, l’infrastructure et les systèmes d’IA, afin de gérer efficacement les défis posés par l’IA dans le paysage technologique actuel.

Scroll to Top