Mise à jour du Hub de Ressources sur l’IA de la NCUA

Hub de Ressources sur l’IA Mis à Jour par la NCUA

Le 22 décembre, la National Credit Union Administration (NCUA) a mis à jour sa page de ressources sur l’Intelligence Artificielle (IA) pour regrouper des références techniques et politiques essentielles pour les coopératives de crédit assurées par l’État. Cette page s’inscrit dans les ressources plus larges de la NCUA liées à la cybersécurité et à la technologie financière, et est explicitement conçue pour soutenir l’évaluation et la diligence raisonnable des vendeurs d’IA tiers.

Gouvernance de l’IA et Gestion des Risques

Pour la gouvernance de l’IA, la NCUA oriente les coopératives de crédit vers les ressources de l’Institut National des Normes et de la Technologie (NIST) des États-Unis. Les documents du NIST offrent une approche structurée pour la conception, le développement, la gouvernance et l’utilisation de l’IA, incluant des recommandations pratiques pour gérer les risques liés aux individus et aux organisations.

La NCUA met également en avant un document du Committee of Sponsoring Organizations (COSO) du Treadway Commission intitulé « Réaliser le plein potentiel de l’IA : Appliquer le cadre et les principes COSO pour aider à mettre en œuvre et à développer l’IA ». Ce document applique le cadre de gestion des risques d’entreprise COSO à l’IA, couvrant les structures de gouvernance, la supervision du conseil d’administration, l’appétit pour le risque, les méthodologies d’évaluation des risques et le suivi des performances des implémentations d’IA.

Sécurité des Données et Déploiement Sécurisé de l’IA

La page de ressources de la NCUA fait référence à deux publications axées sur l’IA de l’Agence de Cybersécurité et de Sécurité des Infrastructures (CISA). La première est une fiche d’information sur la sécurité des données de l’IA, qui aborde la sécurisation des données alimentant les systèmes d’IA tout au long de leur cycle de vie, y compris la sécurité de la chaîne d’approvisionnement des données et la protection contre les données modifiées de manière malveillante.

Le second document de la CISA, « Déployer des systèmes d’IA de manière sécurisée », traite des méthodes pour déployer et exploiter en toute sécurité des systèmes d’IA développés par des entités externes. Il couvre des problématiques telles que la protection des poids des modèles, la mise en œuvre d’API sécurisées et l’établissement de protocoles de surveillance continue pour les systèmes d’IA en production.

IA dans les Services Financiers et Fraude Alimentée par Deepfake

Pour contextualiser l’IA dans le secteur financier, la NCUA cite un rapport du Department of the Treasury des États-Unis intitulé « Intelligence Artificielle dans les Services Financiers ». Ce rapport examine à la fois les cas d’utilisation de l’IA traditionnelle et générative, abordant les normes de confidentialité et de sécurité des données, les défis de biais et d’explicabilité, ainsi que les questions de protection des consommateurs.

Enfin, la NCUA souligne un rapport de la FinCEN sur les « Schémas de Fraude Impliquant des Médias Deepfake Ciblant les Institutions Financières ». Ce document décrit comment les criminels utilisent des deepfakes générés par IA pour créer de faux documents d’identité, photos et vidéos afin d’échapper aux contrôles de vérification des clients. Il propose également des indicateurs d’alerte spécifiques et des meilleures pratiques pour renforcer la vérification de l’identité et signaler les activités suspectes.

Conclusion

Dans l’ensemble, le hub de ressources sur l’IA mis à jour par la NCUA indique que les attentes de supervision autour de l’IA seront ancrées dans des cadres bien connus plutôt que dans un ensemble de règles spécifiques à l’IA ou par le biais d’actions réglementaires par l’application. Cette mise à jour confirme également que l’IA est fermement dans le champ de la supervision des tiers et des disciplines traditionnelles de sécurité, de conformité et de cybersécurité.

Scroll to Top