Réglementation de l’IA dans les services financiers : vers une approche équilibrée

Réglementation de l’IA dans les services financiers : transformer les principes en pratique

À l’approche de 2026, le secteur des services financiers au Royaume-Uni se trouve à un moment charnière dans son parcours en matière d’IA. Ce qui a commencé comme des pilotes prudents a évolué vers un déploiement généralisé, incitant les régulateurs à affiner leur attention sur la gouvernance et le risque.

Un équilibre délicat

Les récentes déclarations de la FCA (Financial Conduct Authority) devant le Comité du Trésor et les remarques du Directeur général Nikhil Rathi au FT Global Banking Summit mettent en lumière l’équilibre délicat : promouvoir l’innovation tout en protégeant les consommateurs et la stabilité financière.

Ce désir d’équilibre a été réaffirmé début décembre 2025 lorsque Rathi a confirmé que la FCA n’introduira pas de règles spécifiques à l’IA, citant l’évolution rapide de la technologie « tous les trois à six mois ». Au lieu de cela, le régulateur renforce son approche basée sur des principes, centrée sur les résultats, encourageant les entreprises à innover tout en s’engageant à intervenir uniquement en cas de « défaillances flagrantes non traitées ».

Approche réglementaire du Royaume-Uni

Malgré l’attention politique croissante sur le développement sûr de l’IA avancée, les régulateurs financiers britanniques ont résisté aux appels pour un cadre réglementaire spécifique à l’IA. La FCA a confirmé que son approche reste neutre en matière de technologie, basée sur des principes et centrée sur les résultats, en s’appuyant sur des cadres existants tels que le Consumer Duty et le Senior Managers & Certification Regime (SM&CR).

Jessica Rusu, Directrice des données, de l’information et de l’intelligence de la FCA, a déclaré que le régulateur n’a pas l’intention d’introduire des règles d’IA prescriptives, mais qu’il intégrera la supervision de l’IA dans les normes de conduite et de prudence existantes, en se concentrant sur l’équité, la transparence et la responsabilité.

Adoption de l’IA : un passage du pilote à la performance

Le rythme d’adoption de l’IA a considérablement augmenté. Une enquête publiée en novembre 2024 a révélé que 75 % des entreprises utilisaient déjà l’IA, avec 10 % supplémentaires prévoyant de l’adopter dans les trois ans. Les modèles fondamentaux, y compris les grands modèles de langage (LLM), représentaient 17 % des cas d’utilisation.

La FCA a également constaté des gains de productivité mesurables grâce à l’IA, 59 % des institutions ayant signalé une amélioration par rapport à l’année précédente.

Exemples d’utilisation de l’IA

Les cas d’utilisation courants de l’IA dans le secteur financier incluent :

  • Détection de fraude et prévention des escroqueries d’applications : Des organisations comme la British Insurance Brokers’ Association utilisent l’IA pour analyser rapidement les données et détecter des activités frauduleuses.
  • Conformité AML/KYC et surveillance des transactions : La FCA collabore avec l’Alan Turing Institute pour améliorer la détection du blanchiment d’argent grâce à des analyses avancées.
  • Modélisation des menaces en cybersécurité : Les entreprises utilisent l’IA pour détecter et répondre efficacement aux cyberattaques potentielles.
  • Automatisation du service client et chatbots : L’assistant numérique de NatWest, « Cora », a géré plus de 11 millions d’interactions clients en 2024.
  • Optimisation des opérations internes : Zurich Insurance UK utilise l’IA pour améliorer l’extraction de données et la gestion des courriels.
  • Outils de robo-conseil en phase initiale : Lloyd’s Market Association emploie des outils d’IA pour soutenir le processus de souscription tout en gardant les jugements humains au centre des décisions.

Perspectives des régulateurs sur les risques émergents

Les risques associés à l’utilisation de l’IA, notamment l’IA générative et agentique, sont surveillés de près. Les priorités de supervision incluent :

  • Transparence et explicabilité : Les entreprises doivent expliquer comment les modèles d’IA prennent des décisions, en particulier dans des domaines critiques.
  • Responsabilité : La responsabilité des résultats liés à l’IA doit être clairement allouée dans le cadre existant du SM&CR.
  • Surveillance des risques systémiques : La Banque d’Angleterre évalue si l’adoption généralisée de l’IA pourrait amplifier les chocs du marché.

En conclusion, alors que le Royaume-Uni se distingue par son approche pro-innovation, la nécessité d’une réglementation agile et adaptative reste primordiale. Les entreprises doivent s’attendre à un resserrement progressif des attentes, en particulier en matière d’auditabilité et de protection des consommateurs.

Scroll to Top