La Commission Européenne façonne la prochaine frontière de la gouvernance de l’IA dans le secteur financier
À mesure que les institutions financières étendent leur utilisation de l’IA, l’UE affine les cadres de gouvernance, de responsabilité et de protection des données pour protéger les marchés et les consommateurs. L’importance de ces principes pour un déploiement responsable de l’IA dans le secteur financier est essentielle.
Architecture logicielle et IA
Les institutions financières d’aujourd’hui reposent sur une architecture pilotée par des logiciels, où l’IA façonne les workflows essentiels, de l’intégration des clients à l’analyse, en passant par la tarification, la conformité et l’allocation de portefeuille. Les décisions prises par ces systèmes impactent directement le capital, la liquidité et les résultats fiduciaires. C’est pourquoi l’agenda réglementaire de l’Europe, comprenant la Loi sur la Résilience Opérationnelle Numérique (DORA), le Règlement Général sur la Protection des Données (RGPD) et le développement de la Loi sur l’IA de l’UE, reconnaît l’IA comme intégrale à la résilience opérationnelle et à la gouvernance des comportements.
Exigences réglementaires et gouvernance de l’IA
Depuis sa mise en vigueur en janvier 2023, DORA exige des entreprises financières qu’elles établissent des cadres complets de gestion des risques TIC et de résilience. Cela inclut la déclaration d’incidents cybernétiques, le test de la résilience opérationnelle et la gestion des risques des fournisseurs de TIC tiers. Ces exigences seront renforcées par des standards techniques de surveillance de la Autorité Bancaire Européenne (EBA) et de l’Autorité Européenne des Marchés Financiers (ESMA).
Défis de l’explicabilité et responsabilité humaine
L’explicabilité demeure un défi persistant dans l’application de l’IA aux services financiers. Comprendre comment l’IA atteint ses conclusions peut s’avérer difficile, en particulier lorsque de nombreux systèmes fonctionnent comme des réseaux neuronaux. Bien que la complexité soit un défi, elle ne doit pas justifier l’absence de contrôle. Les institutions doivent se concentrer sur l’éthique de l’utilisation de l’IA et s’assurer que leurs outils servent des objectifs légitimes.
Gestion des risques des tiers
Les institutions financières doivent évaluer soigneusement leurs risques, y compris les faiblesses opérationnelles et les situations où “les choses peuvent mal tourner”. L’externalisation de fonctions techniques n’implique pas un transfert de responsabilité. Même en utilisant des modèles tiers, les banques restent responsables devant les régulateurs et les clients.
Fondements d’une gouvernance solide pour une IA évolutive
Assurer une supervision humaine efficace est central pour un déploiement responsable de l’IA dans les services financiers. Les régulateurs adoptent des approches pratiques pour comprendre comment les systèmes d’IA se comportent en pratique. À travers différentes juridictions, les approches réglementaires varient ; l’UE construit un cadre légal contraignant pour l’IA à haut risque.
Les exigences telles que la résilience, l’explicabilité et l’équité ne doivent pas être perçues comme des limitations à l’innovation. Au contraire, une gouvernance robuste de l’IA est essentielle pour garantir que l’innovation se déroule tout en protégeant les clients et en étendant l’IA à des processus critiques.
