Guide Pratique sur la Gestion des Risques de l’IA pour les Institutions Financières

Singapour : Le consortium MAS publie un manuel complet sur la gestion des risques liés à l’IA pour les institutions financières

Le consortium MindForge a publié le manuel exécutif sur la gestion des risques liés à l’IA, offrant des conseils sur la gouvernance de l’IA et la gestion des risques pour les institutions financières. Ce manuel soutient les établissements financiers à différents niveaux de maturité concernant l’IA, leur permettant de déployer l’IA avec confiance en adoptant et en opérationnalisant une gouvernance et une gestion des risques liés à l’IA à l’échelle de l’entreprise, favorisant ainsi une utilisation de l’IA rapide mais responsable.

Contexte

La MAS a émis les 14 principes FEAT (Équité, Éthique, Responsabilité, Transparence) pour une utilisation responsable de l’IA dans le secteur des services financiers en 2018. Suite à l’introduction de ces principes, l’initiative Veritas a été créée par la MAS et un consortium d’institutions financières, de sociétés de conseil et d’entreprises technologiques pour opérationnaliser ces principes, produisant une méthodologie et un ensemble d’outils entre 2020 et 2023.

La phase 1 du projet MindForge s’est conclue avec la publication d’un livre blanc sur les risques émergents et les opportunités de l’IA générative pour les banques en mai 2024. La phase 2 regroupe des banques, des assureurs, des sociétés de marchés de capitaux, des associations professionnelles, des partenaires technologiques et de conseil pour aborder les défis de gouvernance des systèmes d’IA modernes, y compris l’IA traditionnelle, l’IA générative et l’IA agentique. Le manuel exécutif traduit des années de collaboration dans l’industrie en conseils pratiques que les établissements financiers peuvent mettre en œuvre, quel que soit leur niveau de maturité en matière d’IA.

Composants clés

Le manuel exécutif fait partie d’un ensemble de trois manuels conçus pour être utilisés ensemble :

  • Manuel exécutif sur la gestion des risques liés à l’IA : fournit des considérations et des pratiques de mise en œuvre pour gouverner l’IA dans chaque section de la portée du manuel, destiné aux dirigeants du secteur des services financiers.
  • Manuel d’opérationnalisation de la gestion des risques liés à l’IA (à venir) : offre des conseils détaillés sur l’opérationnalisation de chaque pratique de mise en œuvre, y compris des illustrations de bonnes pratiques.
  • Exemples de mise en œuvre du manuel de gestion des risques liés à l’IA (à venir) : présente des études de cas détaillées sur les expériences des institutions financières mettant en œuvre la gouvernance et la gestion des risques liés à l’IA.

Considérations critiques

Ce manuel exécutif aborde des domaines critiques selon 17 considérations :

  1. Définir les responsabilités pour la supervision de l’IA en établissant un modèle de gouvernance de l’IA clairement défini avec une responsabilité du conseil d’administration et de la direction.
  2. Assurer des politiques, procédures et normes liées à l’IA efficaces qui définissent des concepts clés, des processus et des responsabilités.
  3. Améliorer la gestion des risques au niveau de l’organisation en intégrant les risques spécifiques à l’IA dans le cadre de gestion des risques de l’entreprise.
  4. Améliorer les pratiques de gestion des risques liés aux tiers en renforçant les pratiques d’approvisionnement, d’évaluation des fournisseurs et de contractualisation.
  5. Améliorer la gestion des risques au niveau des cas d’utilisation de l’IA à travers des évaluations de matérialité des risques, des contrôles proportionnés et des examens pré et post-déploiement.
  6. Assurer des capacités d’inventaire de l’IA pour enregistrer et maintenir des informations essentielles sur les cas d’utilisation de l’IA.
  7. Évaluer le contexte et le design du cas d’utilisation pour garantir la compatibilité avec les normes éthiques, réglementaires et organisationnelles.
  8. Évaluer si l’utilisation prévue des données dans le cas d’utilisation de l’IA est compatible avec les normes éthiques, réglementaires et organisationnelles.
  9. Adopter des pratiques de gestion des données appropriées qui abordent les risques et limitations lors du traitement des données pour les cas d’utilisation de l’IA.
  10. Évaluer les risques spécifiques à l’IA lors de l’intégration de produits et services tiers d’IA dans un cas d’utilisation.
  11. Construire le cas d’utilisation de l’IA avec des garde-fous appropriés et des indicateurs pertinents pour une gestion efficace des performances et des risques.
  12. Effectuer des tests et des examens approfondis avant le déploiement pour évaluer les risques spécifiques à l’IA et garantir que les garde-fous, contrôles et gouvernance appropriés ont été respectés.
  13. Développer des plans de surveillance et de contingence pour le cas d’utilisation avant son déploiement.
  14. Effectuer une surveillance continue des cas d’utilisation de l’IA pour s’assurer qu’ils restent adaptés à leur objectif au fil du temps.
  15. Capturer les modifications des cas d’utilisation de l’IA grâce à une gestion efficace des changements pour maintenir la traçabilité et garantir un examen approprié.
  16. Soutenir le déploiement de l’IA pour garantir qu’il est adapté à son objectif.

Le manuel exécutif souligne la proportionnalité – les mesures de gouvernance doivent s’adapter aux risques liés à l’IA en fonction de la nature de l’activité de l’établissement financier, de l’ampleur de l’utilisation de l’IA et de l’appétit pour le risque.

Prochaines étapes

Les institutions financières doivent évaluer leur maturité en matière de gouvernance de l’IA actuelle par rapport aux 17 considérations et mettre en œuvre les pratiques recommandées de manière proportionnelle à leur profil de risque et à leur contexte commercial.

Scroll to Top