Gouvernance essentielle pour les entreprises utilisant l’IA agentique

Pourquoi un manque de gouvernance nuira aux entreprises utilisant l’IA agentique

Les entreprises agissent rapidement pour adopter l’IA agentique—des systèmes d’intelligence artificielle qui fonctionnent sans guidance humaine—mais ont été beaucoup plus lentes à mettre en place une gouvernance pour les superviser, selon une nouvelle enquête. Ce décalage constitue une source majeure de risque dans l’adoption de l’IA. À mon avis, c’est aussi une opportunité commerciale.

Un constat alarmant

Plus de 500 professionnels des données ont été sondés. Nous avons constaté que 41 % des organisations utilisent l’IA agentique dans leurs opérations quotidiennes. Ce ne sont pas juste des projets pilotes ou des tests uniques. Ils font partie des flux de travail réguliers.

En revanche, la gouvernance est en retard. Seules 27 % des organisations affirment que leurs cadres de gouvernance sont suffisamment matures pour surveiller et gérer ces systèmes efficacement.

La nécessité d’une gouvernance efficace

Dans ce contexte, la gouvernance ne concerne pas la réglementation ou des règles inutiles. Elle signifie avoir des politiques et des pratiques qui permettent aux gens d’influencer clairement le fonctionnement des systèmes autonomes, y compris qui est responsable des décisions, comment le comportement est vérifié et quand les humains doivent intervenir.

Ce décalage peut devenir problématique lorsque les systèmes autonomes agissent dans des situations réelles avant que quiconque puisse intervenir. Par exemple, lors d’une récente panne de courant à San Francisco, des robotaxis autonomes se sont retrouvés bloqués à des intersections, bloquant les véhicules d’urgence et confondant d’autres conducteurs. Cette situation a montré que même lorsque les systèmes autonomes se comportent « comme prévu », des conditions inattendues peuvent mener à des résultats indésirables.

Qui est responsable ?

Lorsque les systèmes d’IA agissent seuls, la responsabilité ne réside plus là où les organisations s’y attendent. Les décisions se prennent toujours, mais il est plus difficile de retracer la propriété. Par exemple, dans les services financiers, les systèmes de détection de fraude agissent de plus en plus en temps réel pour bloquer des activités suspectes avant qu’un humain n’ait eu la chance de les examiner. Les clients apprennent souvent que leur carte est déclinée sans explication.

Que se passe-t-il si votre carte est accidentellement refusée par un système d’IA ? Dans cette situation, le problème n’est pas la technologie elle-même—elle fonctionne comme prévu—mais l’absence de responsabilité. La recherche sur la gouvernance humain-IA montre que des problèmes surviennent lorsque les organisations ne définissent pas clairement comment les personnes et les systèmes autonomes doivent interagir.

Intervention humaine tardive

Dans de nombreuses organisations, les humains sont techniquement « dans la boucle », mais seulement après que les systèmes autonomes aient déjà agi. Les gens ont tendance à intervenir une fois qu’un problème devient visible—quand un prix semble incorrect, quand une transaction est signalée, ou quand un client se plaint. À ce stade, le système a déjà pris une décision, et l’examen humain devient correctif plutôt que supervisoire.

Cette intervention tardive peut limiter les conséquences pour les individus, mais elle ne clarifie que rarement qui est responsable. Les résultats peuvent être corrigés, mais la responsabilité reste floue.

Un aperçu de l’avenir de la gouvernance

Le prochain avantage concurrentiel de l’IA ne viendra pas d’une adoption plus rapide, mais d’une gouvernance plus intelligente. Alors que les systèmes autonomes assument plus de responsabilités, le succès appartiendra aux organisations qui définissent clairement la propriété, la supervision et l’intervention dès le départ.

À l’ère de l’IA agentique, la confiance sera accordée aux organisations qui gouvernent le mieux, et non simplement à celles qui adoptent en premier.

Scroll to Top