Adoption de l’IA : Une étude sur l’impact de l’IA sur la gouvernance de la sécurité
Un nouveau rapport révèle que l’utilisation des agents IA, des intégrations et des plateformes de développement IA-native prend de l’ampleur, soulevant de nouveaux défis critiques en matière de gouvernance de la sécurité.
Un changement de paradigme
Selon le rapport intitulé AI Adoption in Practice: What Enterprise Usage Data Reveals About Risk and Governance, l’adoption de l’IA ne se limite plus à l’expérimentation et aux outils de chat généraux. Elle est désormais intégrée dans les flux de travail, connectée aux plateformes commerciales essentielles et capable d’agir de manière autonome.
Russell Spitler, PDG et co-fondateur de Nudge Security, affirme : “L’adoption de l’IA n’est plus expérimentale, elle est opérationnelle.” Ce changement signifie que la gouvernance de l’IA ne peut plus être réactive ou basée uniquement sur des politiques. Elle nécessite une visibilité en temps réel sur les outils IA utilisés, leur intégration avec les systèmes critiques et le flux des données sensibles.
Principales conclusions
- L’utilisation des fournisseurs de LLM de base est presque omniprésente, avec OpenAI présent dans 96% des organisations et Anthropic à 77,8%.
- Les outils d’IA les plus utilisés se diversifient au-delà des chats, incluant l’intelligence des réunions (Otter.ai à 74,2%), les présentations (Gamma à 52,8%), la programmation (Cursor à 48,4%) et la voix (ElevenLabs à 45,2%).
- Des outils agentiques émergent, avec des outils comme Manus (22%), Lindy (11%) et Agent.ai (8%) établissant une empreinte précoce.
- Les intégrations sont répandues et variées, OpenAI et Anthropic étant les plus couramment intégrés dans les suites de productivité des organisations.
- L’utilisation est concentrée, OpenAI représentant 67% du volume de prompts parmi les outils de chat les plus actifs.
- Le risque de sortie de données par le biais des prompts est non négligeable, avec 17% des prompts incluant des activités de copier/coller ou de téléchargement de fichiers.
- Les risques liés aux données sensibles se concentrent sur les secrets, avec des événements de données sensibles détectés principalement pour les secrets et les identifiants (47,9%), suivis des informations financières (36,3%) et des données de santé (15,8%).
La gouvernance de l’IA en pratique
La gouvernance de l’IA est devenue une priorité pour les responsables de la sécurité et des risques, mais de nombreux programmes restent étroitement axés sur les approbations de fournisseurs et les politiques d’utilisation acceptable. Bien que nécessaires, ces contrôles sont insuffisants. Comme le montre cette recherche, les risques les plus conséquents liés à l’IA proviennent désormais de la manière dont les employés utilisent réellement les outils IA au quotidien.
Comprendre les intersections entre les personnes, les autorisations et les plateformes est la base d’une gouvernance efficace de l’IA. Les équipes qui réussiront seront celles qui traiteront la gouvernance de l’IA comme un processus continu et adaptatif, et non comme un audit ponctuel.
Téléchargez le rapport complet
Pour plus de détails, le rapport complet est disponible à l’adresse suivante : AI Adoption in Practice.
