AI met sous pression la résilience du secteur financier, selon le forum GRI
Alors que l’intelligence artificielle (IA) s’immisce de plus en plus dans le système financier, les entreprises devront renforcer leur gouvernance, leurs garanties opérationnelles et les compétences de leur personnel pour gérer une nouvelle génération de risques rapides et potentiellement systémiques, selon le Global Risk Institute (GRI).
Ces conclusions proviennent de la deuxième phase du forum de l’industrie financière sur l’IA (FAFAI II), qui a rassemblé des dirigeants d’institutions financières de premier plan, des universitaires et des organismes publics pour examiner les risques, les mesures d’atténuation et les opportunités liés à l’IA.
Collaboration pour la résilience
FAFAI II est un partenariat entre le GRI et les principales autorités canadiennes, y compris le Bureau du surintendant des institutions financières (OSFI), la Banque du Canada, le ministère des Finances du Canada, l’Agence canadienne de protection des consommateurs financiers (FCAC) et FINTRAC. S’appuyant sur quatre ateliers dirigés par le GRI, le forum s’est concentré sur l’escalade des menaces cybernétiques, le risque tiers, le bien-être financier et la protection des consommateurs, la criminalité financière et la stabilité financière, aboutissant à un rapport final introduisant un cadre AGILE pour naviguer dans les risques liés à l’IA.
L’IA intégrée dans les fonctions essentielles
L’adoption de l’IA ne se limite plus aux projets pilotes. Les participants ont noté que les modèles sont désormais intégrés dans la prise de décision en matière de crédit, la tarification, le trading, la détection de fraude et l’interaction avec les clients, ce qui signifie que la gestion des risques et la gouvernance doivent évoluer en même temps que le déploiement plutôt que de jouer à rattraper le temps perdu.
Dans ce contexte, trois thèmes prioritaires ont émergé pour les institutions financières :
- Élever la gouvernance de l’IA au niveau du conseil d’administration
- Renforcer la résilience opérationnelle
- Développer la culture de l’IA au sein de la main-d’œuvre
Gouvernance de l’IA au niveau du conseil
Le forum a souligné que l’IA est désormais une question de gouvernance stratégique autant que technologique. À mesure que des systèmes plus avancés, y compris de nouvelles formes d’IA autonome ou agente, sont déployés, les conseils d’administration et les équipes exécutives devront avoir une vision plus claire de l’utilisation de l’IA, de sa surveillance et de la responsabilité en cas de problème.
Les éléments clés incluent :
- Accroître la sensibilisation au niveau du conseil concernant les risques liés à l’IA
- Clarifier la responsabilité décisionnelle pour les résultats liés à l’IA
- Intégrer des mécanismes de surveillance suffisamment flexibles pour suivre le rythme des changements rapides dans les modèles, les cas d’utilisation et les attentes réglementaires
Résilience opérationnelle sous pression
Les discussions ont également souligné comment l’adoption de l’IA amplifie les risques opérationnels existants. À mesure que les entreprises dépendent de plus en plus des outils d’IA, de l’infrastructure cloud et des fournisseurs de données et de modèles externes, elles deviennent plus vulnérables aux chaînes d’approvisionnement technologiques échappant à leur contrôle direct.
Les participants ont souligné la nécessité de renforcer les contrôles de base :
- Hygiène cybernétique solide
- Gestion rigoureuse des risques tiers
- Surveillance claire des dépendances technologiques et de données
Le risque de concentration dans les fournisseurs de services cloud et d’IA a été signalé comme une préoccupation particulière, avec le potentiel qu’une seule panne ou compromission affecte plusieurs institutions simultanément.
Préparation de la main-d’œuvre et culture de l’IA
Une troisième priorité est le talent. À mesure que les outils d’IA se répandent dans les fonctions de front-office, de middle-office et de back-office, les entreprises devront investir dans les compétences et la formation afin que les employés à tous les niveaux – des ingénieurs aux équipes de risque, en passant par les cadres et les membres du conseil d’administration – comprennent à la fois ce que l’IA peut faire et où elle peut échouer.
Construire une culture de l’IA à l’échelle du secteur est jugé crucial non seulement pour un déploiement responsable, mais aussi pour détecter de nouvelles menaces telles que la fraude facilitée par l’IA, les deepfakes et des cyberattaques plus sophistiquées.
Implications réglementaires et de responsabilité
Les conclusions de FIFAI II s’inscrivent dans un environnement réglementaire et de responsabilité de plus en plus strict autour de l’IA. En Europe, par exemple, la loi sur l’intelligence artificielle de l’UE devrait entrer en vigueur en août 2026 et exigera, entre autres dispositions, que les deepfakes soient divulgués comme contenus générés ou manipulés par l’IA.
Les spécialistes de la cybersécurité s’attendent à ce que de tels régimes influencent la manière dont les assureurs évaluent les expositions liées à l’IA, rédigent le langage des polices et fixent les tarifs de couverture pour des risques tels que les médias synthétiques, la prise de décision automatisée et la fraude liée à l’IA.
Collaboration pour prévenir les chocs systémiques
Dans l’ensemble, les discussions de FIFAI II renforcent un changement dans la manière dont l’industrie perçoit le risque lié à l’IA – non seulement comme un problème technologique au niveau de l’entreprise, mais comme une source potentielle de stress à l’échelle du secteur si les modèles, les données ou les principaux fournisseurs échouent de manière corrélée.
En réunissant banques, assureurs, régulateurs et décideurs politiques dans le même forum, le GRI vise à fournir un mécanisme d’alerte précoce pour les vulnérabilités émergentes, encourager des attentes de supervision plus cohérentes et partager des approches pratiques pour renforcer la résilience.
