Adoption de l’IA dans la région APJ : Une montée rapide mais des défis de gouvernance
Les organisations à travers l’Asie-Pacifique et le Japon (APJ) augmentent rapidement leur utilisation de l’intelligence artificielle, intégrant des outils et des agents d’IA dans leurs opérations commerciales à grande échelle. Cependant, les données récentes issues des événements Oktane d’Okta suggèrent que la gouvernance, la responsabilité et les contrôles d’identité ne progressent pas au même rythme que cette adoption.
Un écart croissant entre déploiement et préparation
Les résultats d’un sondage sur la sécurité de l’IA mené par Okta lors de ses événements Oktane on the Road mettent en évidence un écart grandissant entre le déploiement des systèmes d’IA et la préparation organisationnelle à gérer les risques qui leur sont associés. Cette transition modifie la nature des risques de sécurité.
Alors que les systèmes d’IA accèdent de plus en plus aux données, déclenchent des flux de travail et soutiennent la prise de décision, les organisations doivent étendre la gestion des identités et des accès au-delà des personnes pour inclure des systèmes numériques autonomes.
Responsabilité et gouvernance floues
Un des thèmes récurrents dans les résultats du sondage est le manque de clarté quant à la propriété des risques de sécurité liés à l’IA. En Australie, seulement 10% des répondants ont déclaré que leurs systèmes d’identité étaient entièrement équipés pour sécuriser les identités non humaines telles que les agents d’IA, tandis que 52% ont indiqué qu’ils étaient partiellement équipés. De plus, 41% des répondants ont signalé qu’il n’y avait personne ou aucune équipe responsable de la gestion de la sécurité de l’IA.
Des niveaux d’incertitude semblables ont été rapportés à Singapour (25%) et au Japon (29%), indiquant que la responsabilité des risques liés à l’IA est souvent dispersée entre plusieurs fonctions ou n’est pas clairement définie.
Le phénomène du “Shadow AI”
Ce manque de responsabilité contribue à la croissance du “Shadow AI”, qui est l’utilisation d’outils d’IA non approuvés ou non supervisés au sein des organisations. Le Shadow AI a été identifié comme la principale préoccupation en matière de sécurité en Australie (35%) et à Singapour (33%). Au Japon, la fuite de données a été citée comme la principale préoccupation (36%), suivie de près par des agents d’IA non approuvés.
Préparation insuffisante des systèmes d’identité
Le sondage montre également un manque généralisé de préparation au sein des cadres de gestion des identités et des accès. Moins de 10% des répondants en Australie, à Singapour et au Japon ont déclaré que leurs systèmes d’identité étaient entièrement équipés pour gérer et sécuriser les identités non humaines.
La majorité des organisations décrivent leurs capacités d’identité comme seulement partiellement préparées, indiquant que beaucoup d’environnements n’ont pas encore adapté leurs systèmes à l’échelle et à la complexité des accès pilotés par l’IA.
Conscience et engagement au niveau du conseil d’administration
La situation est de plus en plus visible au niveau de la haute direction, bien que l’engagement varie selon les pays. En Australie, 70% des conseils d’administration étaient conscients des risques de sécurité liés à l’IA, mais seulement 28% étaient considérés comme pleinement engagés. À Singapour, la sensibilisation des conseils était de 50%, avec 31% pleinement engagés. Le Japon enregistre les niveaux les plus élevés de sensibilisation (78%) et d’engagement (43%).
Un déséquilibre entre adoption et gouvernance
Dans l’ensemble, les résultats soulignent un déséquilibre entre la vitesse d’adoption de l’IA et la préparation organisationnelle à la gouverner. Alors que les agents d’IA et les systèmes automatisés sont de plus en plus intégrés dans les flux de travail opérationnels, de nombreuses organisations manquent de structures de responsabilité claires, de visibilité suffisante et de contrôles d’identité matures.
La confiance dans la détection d’un comportement non autorisé ou inattendu de l’IA reste faible dans tous les pays sondés. Bien que la sensibilisation au risque lié à l’IA soit en hausse, les modèles de gouvernance s’adaptent encore aux réalités des systèmes pilotés par l’IA.
À mesure que l’adoption de l’IA dans la région APJ s’accélère, les mécanismes de contrôle et de gouvernance organisationnels continuent de se développer. Les systèmes d’identité et d’accès deviennent de plus en plus centraux pour la façon dont ces systèmes sont surveillés, gouvernés et sécurisés.
