Modèles conceptuels pour la gouvernance des risques liés à l’IA

Modèles conceptuels pour la gouvernance des risques liés à l’IA

Dans les dernières années, l’atténuation des risques est devenue de plus en plus importante dans le paysage de la gouvernance de l’IA. À travers le monde, tant les pays que les organisations multilatérales ont dépassé les simples déclarations sur les risques posés par l’IA pour adopter des cadres, des lois et des politiques visant à clarifier les droits et les valeurs que les développeurs et les utilisateurs d’IA doivent respecter.

Des politiques telles que le Règlement sur l’Intelligence Artificielle de l’Union Européenne (Règlement (UE) 2024/1689), les règles de l’administration Biden-Harris régissant l’utilisation de l’IA par les agences fédérales des États-Unis, et une résolution unanime de l’Assemblée générale des Nations Unies sur une IA fiable articulent l’intérêt public à protéger contre les risques liés à l’IA.

La montée des préoccupations concernant l’IA

Parallèlement, de nombreux responsables politiques et parties prenantes s’inquiètent des capacités croissantes des modèles d’IA. Les actions de gestion des risques en IA se concentrent sur la gouvernance des modèles d’IA à travers des tests améliorés, des évaluations, et des protections sur les entrées et sorties des modèles.

Les partisans de cette approche centrée sur le modèle soutiennent que les interventions lors des phases d’entraînement et de publication des modèles peuvent réduire les risques posés par les utilisations en aval, en particulier les abus, qui peuvent être d’une importance particulière compte tenu de l’utilisation croissante des modèles d’IA générative.

Critiques de l’approche centrée sur le modèle

Cependant, les critiques soutiennent que cette approche est souvent irréaliste et inefficace, entraînant des coûts indirects pour l’innovation et la pratique scientifique. Selon eux, restreindre les modèles peut freiner les applications productives de l’IA en offrant peu de prévention contre les dommages.

Les activités de gestion des risques en IA sont actuellement entravées par l’absence d’un cadre conceptuel permettant de raisonner sur les forces et les faiblesses des différents points d’intervention (données, modèles, applications, politiques, etc.).

Recentrage sur la prévention des dommages

Dans cet essai, l’accent est mis sur la nécessité de recentrer la prévention des dommages comme objectif principal de la gestion des risques en IA. Cela nécessite des évaluations des risques à un niveau sociotechnique, tenant compte du contexte technique et organisationnel.

Une approche sociotechnique clarifie les différents sites potentiels pour les activités d’atténuation des risques qui réduisent directement les dommages. Intervenir à ces divers sites—ensembles de données, modèles, processus organisationnels—nécessite un ensemble élargi de méthodes et d’outils d’atténuation.

Exemples de cadres de gestion des risques

La Partie I présente et compare divers cadres de gestion des risques en IA, y compris le Règlement de l’UE, les orientations des États-Unis et les efforts de l’Institut de sécurité de l’IA du Royaume-Uni. Ces cadres visent à protéger contre divers risques liés à l’IA et à identifier les méthodes et outils nécessaires pour atténuer ces risques.

Recommandations aux décideurs politiques

Dans la Partie IV, quatre recommandations sont proposées aux décideurs politiques :

  • Développer une carte des systèmes sociotechniques identifiant les composants techniques et organisationnels liés aux dommages.
  • Les déployeurs de systèmes d’IA devraient être chargés d’évaluer et d’atténuer les risques des cas d’utilisation de l’IA.
  • Les cadres réglementaires devraient réduire la dépendance aux développeurs d’IA pour engager des activités d’atténuation des risques.
  • Investir dans l’infrastructure et la recherche pour soutenir les évaluations sociotechniques et les techniques d’atténuation des risques nécessaires pour réduire les dommages.

Si la gestion des risques en IA continue sur sa trajectoire actuelle, elle risque de favoriser des pratiques technocratiques qui ne réduisent pas suffisamment les dommages causés par les systèmes d’IA. Un engagement renouvelé vers la réduction des dommages est essentiel.

Scroll to Top