Cadre de gouvernance techno-légal pour l’IA en Inde

Cadre de gouvernance techno-légal de l’IA proposé par l’Inde

Le Bureau du Conseiller scientifique principal (PSA) de l’Inde a publié un livre blanc qui décrit comment le pays envisage de gouverner l’intelligence artificielle (IA) à travers ce qu’il appelle un cadre techno-légal. Plutôt que de proposer une loi autonome sur l’IA, le document soutient que la gouvernance doit s’opérer à l’intérieur des systèmes d’IA eux-mêmes, par le biais de contrôles techniques appliqués à l’ensemble du cycle de vie du système et ancrés dans les instruments juridiques et réglementaires existants.

Le livre blanc avance un modèle “loi-plus”. Ce modèle se distingue de l’approche adoptée par d’autres juridictions qui poursuivent des lois complètes sur l’IA et reformule la gouvernance de l’IA comme une responsabilité qui commence dès la phase de conception et de déploiement, plutôt que comme un exercice de conformité post hoc.

Raisons de la proposition de ce cadre

Dans le préambule, le Conseiller scientifique principal, Ajay K. Sood, explique que bien que l’IA offre un potentiel transformateur significatif, les risques et les dommages non gérés pourraient saper la confiance et ralentir l’adoption. Dans ce contexte, le document situe l’approche de l’Inde dans un environnement mondial où les gouvernements continuent d’expérimenter la régulation basée sur les risques, des cadres axés sur des principes et des modèles de gouvernance dirigés par des normes.

Le cadre met l’accent sur l’importance de la proportionnalité et de la flexibilité. Il rejette explicitement les obligations uniformes pour tous les systèmes d’IA et appelle à une régulation sensible au contexte, façonnée par la capacité institutionnelle et la diversité de l’écosystème.

Qu’est-ce que la gouvernance techno-légale de l’IA ?

Au cœur du livre blanc se trouve un changement dans la manière dont la gouvernance elle-même est conceptualisée. Le cadre techno-légal est défini comme l’intégration d’instruments juridiques, de conditionnements basés sur des règles, de surveillance réglementaire et de mécanismes d’exécution technique directement dans les systèmes d’IA dès leur conception.

Dans cette perspective, la gouvernance ne fonctionne pas comme une contrainte externe imposée après le déploiement, mais comme une caractéristique intrinsèque des systèmes d’IA capables de répondre aux risques évolutifs.

Pourquoi la gouvernance basée sur le cycle de vie est centrale

Le livre blanc part du principe que les risques liés à l’IA ne surgissent pas à un seul moment. Au contraire, ils s’accumulent tout au long du cycle de vie d’un système d’IA. Certains dommages, en particulier ceux liés à l’utilisation des données et à l’entraînement des modèles, deviennent difficiles ou coûteux à remédier une fois les systèmes déployés.

Ainsi, le cadre organise la gouvernance autour de cinq étapes du cycle de vie de l’IA :

  • Collecte de données : Identification des risques liés à la vie privée, à la sécurité, à la propriété intellectuelle et à l’équité.
  • Protection des données en cours d’utilisation : Phase à haut risque où les abus sont souvent irréversibles.
  • Formation de l’IA et évaluation des modèles : Responsabilisation en amont avec des contrôles tels que l’évaluation des risques des modèles.
  • Inférence de l’IA : Gestion des risques tels que la divulgation non intentionnelle d’informations sensibles.
  • Systèmes d’IA fiables et agents : Propositions de contrôles pour les systèmes d’IA autonomes.

Comment le cadre techno-légal doit fonctionner en pratique

Pour opérationnaliser ce cadre, le livre blanc propose une architecture institutionnelle multi-niveaux qui combine coordination, expertise, tests et mécanismes d’apprentissage. Au centre se trouve un Groupe de gouvernance de l’IA, chargé de coordonner les ministères et les régulateurs.

Rôle de l’infrastructure publique numérique

Une caractéristique déterminante du cadre réside dans sa dépendance à l’égard de l’Infrastructure publique numérique (DPI) de l’Inde, traitée comme un outil facilitant l’accès basé sur le consentement et l’auditabilité à grande échelle.

Limitations du cadre proposé

Le document ne clarifie pas les frontières de l’application lorsque les échecs de l’IA traversent les régulateurs, ni comment les sujets de l’IA peuvent contester les dommages. De plus, il ne définit pas de seuils d’application pour les engagements volontaires et l’auto-régulation.

En conclusion, le cadre techno-légal ne résout pas tous les compromis, mais se positionne comme une approche incrémentale qui intègre des sauvegardes dans les systèmes tout en préservant la flexibilité réglementaire à mesure que l’adoption de l’IA se développe.

Scroll to Top