Microsoft : L’adoption des agents IA en forte hausse face aux contrôles de sécurité
Microsoft a récemment publié des recherches révélant que le déploiement d’agents IA autonomes au sein des organisations britanniques a explosé au cours de l’année passée, entraînant une vague de gains en productivité et un défi croissant en matière de sécurité.
Une adoption rapide accompagnée d’un risque accru
Selon une étude qui a sondé 1 000 décideurs seniors au Royaume-Uni, la part des organisations déployant activement des agents IA a presque triplé en seulement douze mois, passant de 22% à 62%. De plus, 68% des entreprises s’attendent à une intégration complète des agents IA dans leur structure dans les douze mois à venir.
Cependant, à mesure que le déploiement s’accélère, émergent ce que le rapport appelle des “agents doubles” : des agents IA introduits dans des environnements professionnels sans supervision formelle en matière de TI ou de sécurité, porteurs de permissions excessives, d’origines inconnues ou d’une gouvernance insuffisante. 84% des dirigeants interrogés ont signalé que ces agents non sanctionnés représentent un risque croissant pour la sécurité.
Des préoccupations concrètes
Les préoccupations ne sont pas théoriques. 86% des dirigeants reconnaissent que les agents IA introduisent des défis de sécurité et de conformité que les cadres existants n’ont jamais été conçus pour gérer. 85% estiment que le déploiement progresse plus rapidement que les approches traditionnelles de supervision ne peuvent les soutenir, et 80% se disent inquiets de la complexité de la gestion des agents à grande échelle.
Malgré ces préoccupations, 87% des dirigeants affirment avoir confiance en leur capacité à prévenir la création ou l’utilisation d’agents IA non autorisés.
Un parallèle avec le shadow IT
Microsoft compare ce contraste à la dernière grande montée du shadow IT, où les employés adoptaient des outils non sanctionnés plus rapidement que les équipes de sécurité ne pouvaient les détecter, créant des angles morts qui ont pris des années à être résolus. Le risque est que les agents IA suivent le même modèle, mais de manière encore plus rapide.
Ce problème ne se limite pas au Royaume-Uni. Le rapport Cyber Pulse AI Security de Microsoft a révélé que plus de 80% des entreprises du Fortune 500 utilisent déjà des agents IA, soulignant la rapidité avec laquelle ces systèmes autonomes deviennent une partie intégrante des opérations d’entreprise à l’échelle mondiale.
Que doivent faire les entreprises ?
En plus de souligner les préoccupations en matière de sécurité liées à la croissance des agents, Microsoft offre des conseils aux organisations sur la manière d’aborder ce défi croissant.
Le message central est que les agents IA doivent être traités avec la même rigueur que toute autre identité dans un environnement professionnel, qu’il s’agisse d’humains ou de machines :
“En traitant les agents IA comme des identités gérées et en appliquant des principes de confiance zéro, avec un accès au moindre privilège, des permissions définies et une auditabilité complète, les entreprises peuvent gérer le risque tout en continuant à innover en toute confiance.”
Les priorités des équipes de sécurité
Les équipes de sécurité elles-mêmes ont identifié trois priorités immédiates alors que l’adoption s’accélère :
- Maintenir la visibilité sur les opérations des agents
- Les intégrer en toute sécurité dans les systèmes existants
- Répondre aux exigences de conformité et d’audit à mesure que l’activité autonome s’étend
Chacune de ces priorités souligne le même défi sous-jacent : les organisations doivent intégrer les agents IA dans leurs cadres de gouvernance avant que l’écart ne devienne ingérable.
Garder l’innovation en phase avec la sécurité
Les recherches de Microsoft arrivent à un moment où le cas commercial pour les agents IA se renforce et où l’adoption suit.
Cependant, l’infrastructure de sécurité pour les soutenir reste à la traîne. Le risque est que la rapidité de l’adoption, sans investissement équivalent dans la gouvernance, crée des angles morts qui sont difficiles et coûteux à combler par la suite.
Ce que cette recherche reflète finalement est un schéma plus large qui ne fera que s’intensifier. À mesure que l’IA devient plus capable et plus intégrée dans le fonctionnement des entreprises, les défis de sécurité qu’elle introduit croîtront également.
Il est peu probable que l’arrivée des agents autonomes soit la dernière fois que l’adoption de la technologie dépasse les cadres destinés à la gouverner.
