Pourquoi la sécurité des identités est la fondation de l’IA agentique
Dans le paysage technologique de la région Asie-Pacifique, la conversation autour de l’IA a connu un tournant décisif. L’IA n’est plus considérée comme une capacité émergente ou une expérience stratégique. Les systèmes agentiques sont déjà intégrés dans les opérations des entreprises, interagissant avec les environnements de production et exécutant des décisions qui relevaient autrefois des opérateurs humains.
Les agents autonomes écrivent maintenant du code, provisionnent des infrastructures, interrogent des données régulées et initient des actions à travers des systèmes critiques et sensibles. Ils opèrent à une vitesse et à une échelle que les modèles de gouvernance traditionnels n’étaient pas conçus pour accueillir. Le défi central auquel sont confrontées les entreprises n’est pas de savoir si l’IA agentique affectera les opérations, mais si les cadres de contrôle existants peuvent évoluer assez rapidement pour rester crédibles.
Aborder la gouvernance de l’IA : perspectives des leaders d’Asie-Pacifique
En Asie-Pacifique, l’investissement dans l’IA est passé de programmes pilotes à des infrastructures fondamentales. IDC prévoit que les investissements en IA et en IA générative dans la région atteindront 175 milliards de dollars américains d’ici 2028, reflétant un déploiement à travers un éventail croissant de fonctions commerciales. La région est à l’avant-garde de ce changement, façonné par une adoption élevée du cloud, une maturité réglementaire et des approches nationales qui traitent la capacité numérique comme une infrastructure économique.
Au sein des entreprises asiatiques, les équipes d’identité constatent déjà un changement dans la demande. Une part croissante des demandes d’accès provient d’acteurs non humains, non pas des comptes système traditionnels, mais d’agents adaptatifs qui initient des actions et évoluent continuellement. Parallèlement, les fonctions de risque et de conformité sont sollicitées pour gouverner des systèmes qui se déplacent plus rapidement que les cycles de révision établis ne le permettent. La question qui définit de plus en plus les discussions sur la gouvernance est celle de la responsabilité. Lorsque un système autonome accède à des données sensibles ou déclenche un processus régulé, la responsabilité doit être clairement définie et démontrable.
Où la sécurité des identités permet une adoption sécurisée de l’IA
Chaque agent d’IA fonctionne à travers une identité. Il s’authentifie, demande une autorisation et exerce un privilège. Traiter ces identités comme secondaires par rapport aux utilisateurs humains crée des angles morts structurels. Les identités d’IA nécessitent la même rigueur appliquée aux employés, partenaires et machines, en particulier en raison de leur impact potentiel plus large et moins prévisible.
Lorsque les identités d’IA sont découvrables, gouvernées et auditées, les organisations peuvent déployer des systèmes agentiques sans s’appuyer sur une confiance informelle ou des contrôles rétrospectifs. La sécurité des identités, lorsqu’elle est conçue de manière appropriée, ne freine pas l’innovation. Au contraire, elle réduit l’ambiguïté, permettant aux initiatives d’IA de progresser avec une responsabilité plus claire plutôt qu’un risque non contrôlé.
Selon l’enquête Future Enterprise Resiliency and Spending (FERS) 2025 d’IDC, 34 % des organisations de la région priorisent désormais la gouvernance de l’IA alors que l’IA générative s’intègre dans les flux de travail commerciaux principaux. Dans ce contexte, la gouvernance des identités devient un mécanisme pratique pour équilibrer rapidité et contrôle, traduisant l’ambition en systèmes qui peuvent être défendus, audités et soutenus.
Le mouvement “construisez votre propre IA” de Singapour
La culture d’entreprise de Singapour a longtemps favorisé le développement des capacités internes. Les institutions financières, les entreprises de logistique, les sociétés technologiques et les agences du secteur public construisent leurs propres agents d’IA pour rationaliser les flux de travail, soutenir la prise de décision et réduire les frictions opérationnelles. Cette dynamique peut offrir des avantages, mais elle introduit également des risques lorsque la surveillance ne suit pas le rythme.
Par exemple, les outils “shadow IA”, qui fonctionnent en dehors de la gouvernance formelle, deviennent difficiles à inventorier, plus difficiles à auditer et difficiles à défendre sous un contrôle réglementaire, exposant les organisations à des risques supplémentaires.
Gartner prédit qu’à l’horizon 2026, 40 % des applications d’entreprise comporteront des agents d’IA spécifiques à des tâches, contre moins de 5 % aujourd’hui. D’ici cette période, plus de 80 % des entreprises devraient avoir déployé des capacités d’IA générative via des API ou des applications intégrées. L’implication est claire : l’expansion des identités s’accélérera rapidement.
Les agents d’IA émergent rapidement, et les entreprises de la région APAC devraient être confrontées à des pressions de gouvernance plus tôt que de nombreuses autres régions en raison d’une adoption plus profonde et d’attentes plus élevées en matière de contrôle. L’intégration de la sécurité des identités dès le départ aide à garantir que l’IA soutienne la productivité plutôt que de devenir une source d’exposition non gérée.
Établir un cadre de confiance et de contrôle
La gestion des systèmes agentiques nécessite une approche centrée sur l’identité, fondée sur la visibilité et le contexte. Les organisations doivent systématiquement découvrir et classifier les composants d’IA en opération, évaluer leur posture de sécurité et de conformité, et suivre comment les autorisations changent au fil du temps. Sans cette fondation, le contrôle reste largement théorique.
Le rapport Pulse 2025 des implications de la cybersécurité de l’Information Security Media Group reflète ce changement, notant que l’adoption de l’IA redéfinit à la fois la surface de menace et le paysage de gouvernance à travers les secteurs. À mesure que les systèmes autonomes prennent des rôles de plus en plus conséquents, l’identité fonctionne de plus en plus comme la couche de contrôle par laquelle la responsabilité et la surveillance sont maintenues.
Renforcer la confiance numérique par la gouvernance des identités
L’IA devient une source significative d’accès privilégié au sein des entreprises. Pourtant, la visibilité exécutive sur la portée, les niveaux de privilège et l’autorité des comptes non humains reste limitée, surtout là où les modèles de gouvernance traitent encore l’identité comme principalement humaine. À mesure que les systèmes agentiques se multiplient, ce déséquilibre entre la croissance des identités et la surveillance est susceptible de s’intensifier, à moins que les modèles de gouvernance n’évoluent en conséquence.
À travers la région, les DSI et les RSSI reconnaissent largement que la future croissance des identités sera davantage pilotée par des systèmes autonomes que par l’expansion de la main-d’œuvre. La gouvernance doit donc progresser parallèlement au déploiement pour façonner comment les identités d’IA sont définies, contraintes et dignes de confiance.
En fin de compte, la fiabilité des systèmes d’IA dépend des contrôles d’identité qui régissent leurs actions.
