Gouvernance de l’IA agentique : un défi incontournable pour les entreprises

Les entreprises adoptent déjà l’IA agentique pour prendre des décisions, mais la gouvernance reste à la traîne

Les entreprises agissent rapidement pour adopter des IA agentiques – des systèmes d’intelligence artificielle qui fonctionnent sans guidance humaine – mais elles mettent beaucoup plus de temps à mettre en place une gouvernance pour les superviser, selon une nouvelle enquête. Ce décalage constitue une source majeure de risque dans l’adoption de l’IA. À mon avis, c’est aussi une opportunité commerciale.

État actuel de l’adoption de l’IA agentique

Une enquête menée auprès de plus de 500 professionnels des données a révélé que 41% des organisations utilisent l’IA agentique dans leurs opérations quotidiennes. Il ne s’agit pas seulement de projets pilotes ou de tests ponctuels, mais d’éléments intégrés aux flux de travail réguliers.

Le retard de la gouvernance

En revanche, la gouvernance est en retard. Seulement 27% des organisations affirment que leurs cadres de gouvernance sont suffisamment matures pour surveiller et gérer ces systèmes de manière efficace.

Dans ce contexte, la gouvernance ne concerne pas la réglementation ou des règles inutiles. Elle implique d’avoir des politiques et des pratiques qui permettent aux personnes d’influencer clairement le fonctionnement des systèmes autonomes, y compris qui est responsable des décisions, comment le comportement est vérifié et quand les humains doivent intervenir.

Les risques de l’absence de gouvernance

Ce décalage peut devenir problématique lorsque les systèmes autonomes agissent dans des situations réelles avant que quiconque puisse intervenir. Par exemple, lors d’une récente panne de courant à San Francisco, des robotaxis autonomes se sont bloqués à des intersections, bloquant les véhicules d’urgence et déroutant d’autres conducteurs. Cette situation a montré que même lorsque les systèmes autonomes se comportent “comme prévu”, des conditions inattendues peuvent mener à des résultats indésirables.

Une grande question se pose : lorsque quelque chose tourne mal avec l’IA, qui est responsable – et qui peut intervenir ?

L’importance de la gouvernance

Lorsque les systèmes d’IA agissent de manière autonome, la responsabilité ne se situe plus là où les organisations s’y attendent. Les décisions continuent d’être prises, mais la propriété est plus difficile à tracer. Par exemple, dans les services financiers, les systèmes de détection de fraude agissent de plus en plus en temps réel pour bloquer des activités suspectes avant qu’un humain n’ait jamais examiné le cas.

Alors, que se passe-t-il si votre carte est refusée par un système d’IA ? Dans cette situation, le problème ne réside pas dans la technologie elle-même – elle fonctionne comme elle a été conçue – mais dans la responsabilité. Les recherches sur la gouvernance humain-IA montrent que des problèmes surviennent lorsque les organisations ne définissent pas clairement comment les personnes et les systèmes autonomes doivent travailler ensemble.

La nécessité d’une intervention humaine efficace

Dans de nombreuses organisations, les humains sont techniquement “dans la boucle”, mais seulement après que les systèmes autonomes aient déjà agi. Les personnes ont tendance à intervenir une fois qu’un problème devient visible – lorsqu’un prix semble incorrect, une transaction est signalée ou un client se plaint. À ce moment-là, le système a déjà pris une décision, et l’examen humain devient correctif plutôt que supervisoire.

Cette intervention tardive peut limiter les conséquences des décisions individuelles, mais elle ne clarifie que rarement qui est responsable. Les résultats peuvent être corrigés, mais la responsabilité reste floue.

L’impact d’une gouvernance efficace

Une gouvernance bien conçue ne limite pas l’autonomie. Elle la rend praticable en clarifiant qui possède les décisions, comment le fonctionnement des systèmes est surveillé et quand les personnes doivent intervenir. Des directives internationales de l’OCDE soulignent ce point : la responsabilité et la surveillance humaine doivent être intégrées dans les systèmes d’IA dès le départ, et non ajoutées ultérieurement.

Plutôt que de ralentir l’innovation, la gouvernance crée la confiance nécessaire aux organisations pour étendre l’autonomie au lieu de la retirer silencieusement.

Un avantage compétitif par une gouvernance intelligente

Le prochain avantage compétitif dans l’IA ne viendra pas d’une adoption plus rapide, mais d’une gouvernance plus intelligente. À mesure que les systèmes autonomes prennent plus de responsabilités, le succès appartiendra aux organisations qui définissent clairement la propriété, la supervision et l’intervention dès le départ.

À l’ère de l’IA agentique, la confiance s’accumulera auprès des organisations qui gouvernent le mieux, et non simplement auprès de celles qui adoptent en premier.

Scroll to Top