Gouvernance de l’IA : Un enjeu mondial pour les banques

Partie III : Pourquoi la gouvernance de l’IA dans l’assurance qualité est désormais une préoccupation bancaire mondiale

Cette série en trois parties explore la gouvernance de l’IA dans les systèmes bancaires et les tests logiciels. Elle examine pourquoi les systèmes d’IA modernes entrent en collision avec les attentes réglementaires, comment les superviseurs réagissent, et pourquoi les équipes d’assurance qualité (AQ) au sein des banques et des institutions financières sont de plus en plus sollicitées pour porter la responsabilité des risques liés à l’IA, au contrôle et à la preuve.

Problème mondial

Lorsque la gouvernance de l’IA atteint la fonction AQ, elle n’est plus une question locale ou isolée. C’est un problème mondial.

Les groupes bancaires internationaux opèrent à travers des juridictions avec des philosophies réglementaires différentes, des délais d’application inégaux et des attentes divergentes concernant la transparence et le contrôle de l’IA.

Cependant, les technologies sous-jacentes qu’ils déploient, telles que les modèles d’apprentissage automatique, les systèmes d’IA générative et les pipelines de données synthétiques, se comportent de manière globalement similaire partout.

Cela crée un défi structurel. Un système qui passe la surveillance de gouvernance dans un marché peut échouer dans un autre. Les équipes d’AQ sont de plus en plus responsables de la réconciliation de ces différences à travers les tests, les preuves et les cadres de contrôle qui peuvent résister à l’examen transfrontalier.

Préoccupations émergentes

Le Forum Économique Mondial a récemment affirmé que la gouvernance de l’IA dans le secteur financier n’est plus une préoccupation future. Il a averti que les régulateurs se concentrent de plus en plus sur la capacité des institutions financières à démontrer que les systèmes d’IA sont fiables, explicables et résilients tout au long de leur cycle de vie.

Pour les équipes d’AQ, l’implication est claire. Les tests ne sont plus une activité en aval. Ils deviennent le mécanisme par lequel la confiance est construite et maintenue.

Réponses des institutions financières

Certaines grandes institutions financières répondent déjà en intégrant la gouvernance directement dans les pratiques d’ingénierie et de test. Par exemple, Allianz, l’un des plus grands assureurs mondiaux, traite la gouvernance de l’IA comme une discipline mondiale plutôt qu’un exercice de conformité local.

Philipp Kroetz, PDG d’Allianz Direct, a décrit l’approche de l’organisation comme étant ancrée dans la discipline des résultats, affirmant que “la décision la plus impactante était d’être obstiné sur le résultat et de ne jamais hésiter sur ce à quoi ressemble le bon”. Cette insistance sur la clarté a façonné la manière dont la qualité des données, les tests et la gouvernance de l’IA sont intégrés au sein de l’entreprise.

Leçons pour les équipes d’AQ

L’accent mis par Allianz sur la lignée des données, la cohérence et la traçabilité est particulièrement pertinent pour les équipes d’AQ. L’entreprise a investi massivement dans des modèles de données partagés, des glossaires d’entreprise et des catalogues de données qui permettent aux équipes de test de comprendre d’où proviennent les données, comment elles sont transformées et comment elles sont utilisées dans les modèles.

Cette infrastructure soutient la gouvernance de l’IA non pas à travers des principes abstraits, mais à travers des artefacts testables. Les modèles ne peuvent être validés que si leurs entrées sont fiables.

Évolution des risques liés à l’IA

Les risques associés à l’IA évoluent avec le temps. Contrairement aux systèmes déterministes, les modèles d’IA peuvent changer de comportement à mesure que les données changent ou que les systèmes interagissent avec d’autres modèles. La validation statique est donc insuffisante. Les tests continus et la surveillance deviennent des outils de gouvernance essentiels.

Conclusion

À mesure que les banques continuent de déployer l’IA, la question déterminante ne sera pas combien d’IA elles déploient, mais à quel point elles peuvent démontrer le contrôle de manière convaincante. De plus en plus, cette réponse sera écrite dans les résultats des tests, et non dans des déclarations de politique.

Scroll to Top