Gouvernance IA : vulnérabilité systémique des services financiers

Gouvernance de l’IA dans les services financiers : un manque critique

Des dirigeants seniors du secteur financier britannique ont alerté sur un écart majeur dans les normes de gouvernance de l’intelligence artificielle (IA), exposant le pays à un risque systémique. Cette mise en garde découle d’une étude récente réalisée par Zango AI, qui a interrogé 27 cadres dirigeants et 60 praticiens spécialisés en risque, conformité et gouvernance de l’IA.

Contexte et enjeux

Le Bank of England prévoit de réunir le Trésor, la FCA et le National Cyber Security Centre pour examiner les risques liés au modèle Mythos d’Anthropic. Cette initiative reflète la nécessité d’une réponse coordonnée face à la montée des attaques alimentées par l’IA, qui ont entraîné des pertes frauduleuses mondiales de 579 milliards de dollars en 2025.

Constats clés de l’étude

1. Transition technologique : les institutions financières britanniques passent d’outils IA produisant des sorties prévisibles à des systèmes génératifs et agents dont les résultats sont contextuels et difficilement validables à l’avance.

2. Déficit de gouvernance opérationnelle : les équipes techniques déploient l’IA à un rythme bien plus rapide que les fonctions de risque et de conformité, laissant plusieurs organisations incapables d’identifier tous les outils IA en usage.

3. Absence de cadre normalisé : contrairement aux États‑Unis (Financial Services AI Risk Management Framework, février 2026) et à Singapour (guidelines de la Monetary Authority of Singapore, mars 2026), le Royaume‑Uni et l’UE ne disposent d’aucune norme comparable.

Exemples de participants au rapport

Le rapport cite des contributions de dirigeants de Santander, St James’s Place, Stripe, Standard Chartered, Lloyds Banking Group, Monzo, Allica Bank, Commerzbank, Revolut et Ecommpay, ainsi que du député John Glen (Comité du Trésor).

Risques et conséquences

Le manque de guidance opérationnelle conduit les entreprises à élaborer des solutions de gouvernance de manière isolée, créant des normes de contrôle incohérentes et ouvrant des failles exploitées à grande échelle par des réseaux criminels.

Ritesh Singhania, PDG de Zango, souligne que « la gouvernance faible ne crée pas seulement un risque individuel ; elle engendre une vulnérabilité systémique à travers tout le secteur ». Dean Nash, COO juridique de Santander, ajoute que les systèmes IA actuels « ne se comportent pas comme les modèles sur lesquels les cadres de gouvernance ont été construits », posant ainsi un problème majeur de responsabilité.

Recommandations proposées

Le rapport préconise le développement d’un standard d’implémentation sectoriel, élaboré avec la participation des régulateurs et inspiré du Joint Money Laundering Steering Group, qui a réussi à établir une norme de conformité anti‑blanchiment reconnue par le gouvernement sans être imposée par la loi.

Cette approche viserait à fournir aux institutions financières un cadre commun et opérationnel pour gouverner l’IA, favorisant la cohérence, la traçabilité et la résilience face aux menaces émergentes.

Scroll to Top