Les entreprises doivent prioriser la gouvernance face à l’explosion de l’IA agentique
Les entreprises doivent traiter les agents d’IA comme des identités numériques formelles alors que 2026 se prépare à être l’année d’une main-d’œuvre agentique, au milieu des inquiétudes selon lesquelles la plupart des entreprises sont mal préparées aux risques de sécurité et de gouvernance liés à cette technologie.
Préparation insuffisante des entreprises
Selon une récente discussion lors d’un webinaire, 91 % des organisations utilisent déjà des agents d’IA, mais seulement 10 % estiment avoir une stratégie de gouvernance efficace. De plus, une recherche d’Accenture sur l’état de la résilience en cybersécurité en 2025 a révélé que 90 % des organisations manquent d’une stratégie claire pour gérer les menaces liées à l’IA, malgré l’utilisation d’agents d’IA dans une certaine mesure.
Adoption des systèmes autonomes
Les systèmes autonomes connaissent une adoption croissante dans les flux de travail des entreprises, allant de la rédaction de documents à la planification de réunions, en passant par des tâches plus avancées telles que le développement de logiciels. Avec cette prolifération rapide, un déploiement durable et mesuré est essentiel. Sans cela, le déploiement de l’IA agentique pourrait créer une nouvelle forme de dispersion d’identité.
Identité agentique
Contrairement aux chatbots traditionnels, les agents modernes ont le pouvoir d’interagir et de contrôler directement les systèmes d’entreprise, accomplissant des tâches précédemment réservées aux travailleurs humains. Pour renforcer la transparence et la responsabilité dans la surveillance des actions des agents, il est crucial de les traiter comme des entités individuelles, similaires aux travailleurs humains.
Problèmes d’autorisation
Au cœur de ce défi se trouve un problème familier : les entreprises doivent gérer l’authentification, l’autorisation et le contrôle d’accès pour surveiller la technologie à mesure qu’elle se développe. Il s’agit essentiellement d’un problème d’autorisation ouverte, où une machine communique avec une ressource. La question est : cette machine doit-elle être là, qui accorde cet accès, pour combien de temps et qui peut le révoquer ?
Gestion des identités non humaines
La rapidité de développement de cette technologie accentue le problème. Dans de nombreux cas, les ingénieurs sont encouragés à privilégier la rapidité au détriment de la gouvernance, ce qui entraîne un grand nombre d’identités non humaines non gérées au sein des environnements d’entreprise.
Intégration des agents dans l’entreprise
Les agents agissent comme des employés et accomplissent des tâches que les humains feraient. Par conséquent, la manière de les sécuriser consiste à les gérer comme des identités. Il est essentiel que les agents soient intégrés, gouvernés et surveillés de la même manière que les employés humains, avec des identités définies et une gestion du cycle de vie.
Nécessité de modèles de gouvernance
Des normes et des modèles de gouvernance mieux définis sont également soulignés comme des considérations clés pour les entreprises souhaitant adopter l’IA agentique. Avoir ces modèles en place avant d’ouvrir les vannes à un déploiement massif est crucial pour la viabilité à long terme.
Considérations réglementaires
Cette question devrait également être envisagée à un niveau réglementaire, avec des régimes de conformité prévus aux États-Unis et dans l’Union européenne, qui exigeraient une plus grande transparence et responsabilité pour les agents.
Bien que l’avenir de l’IA agentique soit généralement présenté comme passionnant et riche en opportunités, le message des leaders en sécurité est clair : sans une gouvernance adéquate et des structures d’identité, l’innovation dans l’IA agentique pourrait rapidement se transformer d’un gain de productivité en un risque majeur.
