Préparation du secteur financier pour la conformité à l’IA

Le secteur financier non préparé à la conformité IA : le CCO doit diriger les contrôles

Pour prévenir les accidents liés à l’intelligence artificielle (IA) dans le secteur financier, il est essentiel de créer un organe décisionnel en matière d’IA dirigé par un président de niveau exécutif qui englobe tous les départements concernés. Les responsables informatiques et de gestion des risques doivent naturellement être inclus, mais le rôle du Chief Consumer Officer est le plus critique.

Le Financial Supervisory Service (FSS) recommande de séparer l’organisation de gestion des risques liés à l’IA des unités de planification et de développement de l’IA afin de résoudre les conflits d’intérêts. Des réglementations de gestion des risques couvrant des domaines tels que le développement des systèmes d’IA, la protection des consommateurs et les directives opérationnelles du comité d’éthique de l’IA doivent également être établies comme règles internes de l’entreprise.

Accélérer les approches systématiques

Il est impératif d’accélérer les approches systématiques pour prévenir les incidents liés à l’IA à mesure que celle-ci s’étend aux opérations commerciales. Des violations de sécurité récentes dans le secteur financier sont largement attribuées à une gestion antérieure qui considérait l’investissement en sécurité comme un coût plutôt qu’une nécessité. Les incidents potentiels incluent des clients recevant des informations incorrectes via des consultations d’IA ou des données personnelles dans des ensembles de formation de chatbots exposées dans les réponses.

Le secteur financier, y compris la banque, l’assurance et les valeurs mobilières, est considéré comme celui qui a le plus grand potentiel pour l’IA. L’année dernière, le World Economic Forum a projeté que, compte tenu de la vaste quantité de données et d’opérations basées sur le langage de l’industrie, l’efficacité pourrait s’améliorer de 69 à 73 % grâce à l’automatisation et à l’amélioration du travail. Selon un rapport récent de l’Institute of International Finance, 84 % des institutions financières dans le monde ont adopté l’IA générative dans leurs environnements de travail, contre environ 56 % en Corée.

Défis de l’adoption de l’IA

Le plus grand obstacle à l’adoption et à l’expansion de l’IA est l’absence de cadres de gouvernance et de gestion des risques liés à l’IA. Les entreprises financières nationales sont particulièrement déficientes en ce qui concerne les taux de fourniture de services et les obligations de conformité liées à l’IA à fort impact, c’est-à-dire des systèmes qui peuvent affecter de manière significative ou poser des risques pour la vie, la sécurité physique ou les droits fondamentaux. Une enquête menée par le FSS en janvier a révélé que seulement 8 % des entreprises financières nationales fournissent des services d’IA à fort impact, beaucoup échouant à remplir leurs responsabilités dans des domaines tels que les mesures de gestion des risques, les mesures de protection des utilisateurs et la documentation.

Cadre de gestion des risques IA

Le FSS a développé le AI Risk Management Framework (AI RMF) pour établir la gouvernance et la gestion des risques en matière d’IA. Le RMF, structuré autour de trois piliers—gouvernance, évaluation des risques et contrôle des risques—sert de guide fournissant des bases structurelles aux entreprises financières pour gérer les risques de manière autonome. Pour l’évaluation des risques, où les entreprises rencontrent le plus de difficultés, le cadre mesure les niveaux de risque en subdivisant quatre principes—légalité, fiabilité, bonne foi et sécurité—en trois à cinq critères d’évaluation chacun, puis détermine le niveau de contrôle pour les produits ou services en fonction des résultats.

Progrès technologique et réglementation

En vertu de la loi de base sur l’IA mise en œuvre en janvier de cette année, les services d’IA à fort impact dans le secteur financier sont actuellement limités aux « prêts par sélection sans intervention humaine » dans les banques. Cependant, cette portée est susceptible de s’élargir avec les avancées technologiques, une autre raison pour laquelle le secteur financier doit se concentrer sur les mesures de gestion des risques.

« Les lignes directrices ne précisent pas exactement quelles catégories de prêts qualifient comme services d’IA à fort impact », a-t-il expliqué. « Pour l’instant, les entreprises financières doivent communiquer activement avec le ministère des Sciences et des TIC et le FSS pour déterminer si des services spécifiques relèvent de l’IA à fort impact. »

Appel à l’auto-régulation

Il a conclu en soulignant que des systèmes de contrôle internes autonomes sont primordiaux, car les réglementations ne peuvent jamais suivre le rythme de l’avancement technologique de l’IA. « L’incident récent d’échange de cryptomonnaie aurait pu être évité si les auto-régulations internes avaient été correctement suivies », a-t-il déclaré. « Avec la technologie IA dépassant la réglementation, une croissance durable ne sera possible que lorsque les entreprises financières construiront elles-mêmes des systèmes de gestion des risques responsables. »

Scroll to Top