Gérer le drift de l’IA dans le cadre de la législation européenne

Total des mots DRIFT ou AGENT dans la Loi AI de l’UE

Peut-on gouverner l’IA adaptative et les agents aujourd’hui ?

Le débat sur la mise à l’échelle de l’intelligence artificielle se concentre souvent sur les performances des modèles : exactitude, robustesse, expliquabilité et qualité des données. Lorsque les pilotes échouent à se développer, l’explication prédominante est souvent que la technologie n’est pas encore mûre.

Cependant, du point de vue de la supervision, cette explication devient de plus en plus incomplète.

Le défi de la supervision

Une fois que les systèmes d’IA sont déployés dans des environnements opérationnels réels, ils n’exécutent pas seulement une logique statique. Ils interagissent continuellement avec les utilisateurs, les données et les processus organisationnels, faisant évoluer leur comportement au fil du temps — subtilement, de manière incrémentale et souvent sans visibilité explicite.

Ce phénomène est communément appelé drift. Dans les débats de gouvernance, le drift est souvent présenté comme une anomalie ou un mode de défaillance.

Le cadre de la Loi AI de l’UE

Dans le cadre de la Loi AI de l’UE, cette présentation est trompeuse. Le drift n’est pas une exception. C’est une propriété inhérente des systèmes qui opèrent avec un certain degré d’autonomie. À mesure que les systèmes d’IA deviennent plus adaptatifs, le changement de comportement devient une condition à gouverner plutôt qu’un risque à éliminer.

La question de supervision n’est donc pas de savoir si le drift peut être empêché, mais plutôt s’il est anticipé, limité, surveillé et rendu responsable au fil du temps.

Le drift et le cycle de vie de la Loi AI

Du point de vue de la Loi AI, le drift devient une préoccupation réglementaire lorsque le changement de comportement entraîne des actions du système qui dépassent le champ d’application déclaré, entrent dans des pratiques interdites ou hors du champ d’application (Article 5), ou sapent l’efficacité des contrôles de risque établis (Article 9).

Dans de tels cas, les obligations de responsabilité et de traçabilité en vertu de la loi peuvent se dégrader au fil du temps si le drift n’est pas explicitement gouverné.

Les dimensions de la gouvernabilité

Trois dimensions sont cruciales pour assurer la gouvernabilité des systèmes adaptatifs :

  • Raisonnement – Assurer que les décisions peuvent être justifiées à un niveau systémique en liant les résultats aux politiques, aux entrées, aux mandats et aux approbations, soutenus par une documentation appropriée.
  • Action – Définir ce que le système peut faire et ce qui lui est explicitement interdit, conformément à son objectif déclaré.
  • Cognition – Superviser l’évolution de l’espace opérationnel du système, y compris l’apprentissage et l’adaptation, et garantir que ces changements restent observables et révisables.

Implications pour la supervision

À mesure que les systèmes d’IA deviennent plus adaptatifs, l’attention de la supervision se déplacera progressivement :

  • de la conformité statique au contrôle continu,
  • des internes du modèle au comportement du système,
  • de la certification initiale à la responsabilité continue.

Les obligations en vertu de la Loi AI se rattachent à un comportement continu plutôt qu’à un design statique, ce qui signifie que les systèmes adaptatifs doivent rester gouvernables tout au long de leur cycle de vie opérationnel.

La Loi AI de l’UE n’interdit pas l’IA adaptative ; au contraire, elle exige que l’adaptabilité soit gouvernée. Les institutions capables d’articuler et de démontrer cette gouvernance seront mieux positionnées pour déployer l’IA de manière responsable.

Scroll to Top