AML à l’ère de l’IA : qui est responsable lorsque la machine signale un problème ?
Dans le domaine de la conformité, une question cruciale se pose : lorsque un système d’IA prend une décision de conformité et qu’un problème survient, qui en est responsable ? Ce point de gouvernance n’a pas encore de réponse claire dans les cadres réglementaires mondiaux.
L’IA intégrée dans les opérations de conformité
L’IA est de plus en plus intégrée dans les opérations de conformité des entreprises financières réglementées à travers le monde. Des fonctions telles que la surveillance des transactions, l’intégration des clients, le scoring des risques et la détection d’activités suspectes sont au cœur des obligations de lutte contre le blanchiment d’argent (AML) et le financement du terrorisme (CFT). Ces processus sont désormais partiellement ou substantiellement pilotés par des systèmes automatisés, ce qui est globalement positif. L’IA traite des volumes que aucune équipe humaine ne peut égaler, identifie des motifs que aucun analyste ne pourrait détecter et réduit le fardeau des faux positifs qui a longtemps rendu les opérations de conformité inefficaces.
La question de la responsabilité
Cependant, l’IA n’a pas résolu la question fondamentale de la responsabilité. Les cadres AML reposent sur le principe qu’un être humain a pris une décision. Que ce soit un responsable de la conformité évaluant un risque ou un responsable du reporting de blanchiment d’argent (MLRO) décidant de déposer un rapport, chaque étape implique une personne pouvant être interrogée et tenue responsable.
Avec l’IA, ce lien est modifié sans être remplacé. Alors que les systèmes signalent, notent ou escaladent, l’examen humain devient souvent superficiel en raison des volumes élevés, réduisant ainsi le jugement réel derrière la “signature humaine”. Les régulateurs commencent à aborder cette question, signalant que les modèles d’IA doivent être fiables, transparents et explicables.
Exploiter l’expertise humaine grâce à la machine
Pour combler cette lacune, l’accent doit être mis sur le fait que “la machine” doit non pas prendre des décisions, mais “habiliter le jugement expert”. Un exemple de cette approche est la mise en place d’un flux de travail structuré piloté par l’IA, garantissant la transparence et la supervision humaine.
Lorsqu’un système détecte une activité client à risque, un outil piloté par l’IA génère un profil client complet pour examen immédiat, compilant tous les détails pertinents et l’activité commerciale. Cela garantit qu’aucune information ne passe inaperçue, peignant un tableau en temps réel du comportement du client.
Ce modèle permet au personnel de conformité d’agir rapidement grâce à des informations ciblées, plutôt que de trier d’énormes volumes de données. De plus, cet outil peut également rédiger des rapports d’activités suspectes (SAR) ou des rapports de transactions suspectes (STR) pour les cas nécessitant une attention réglementaire.
Clarifier la responsabilité
Actuellement, la responsabilité est dispersée entre les fournisseurs de technologie, les fonctions de conformité et la direction. Cette ambiguïté ne survivra pas à des actions coercitives significatives. Une véritable responsabilité nécessite une couche de gouvernance qui suit le rythme des déploiements. Chaque décision assistée par l’IA doit appartenir à une catégorie définie, certaines pouvant être prises de manière autonome, tandis que d’autres exigeront un examen humain obligatoire.
L’élément humain doit être substantiel
Traiter la supervision humaine comme une simple formalité crée une apparence de responsabilité sans substance. Une culture de conformité authentique, capable de résister à la pression réglementaire internationale, repose sur des personnes qui comprennent le pourquoi de leurs actions. La machine peut signaler, mais elle ne peut pas être tenue responsable. Cette responsabilité demeure avec ceux qui construisent le cadre de gouvernance autour d’elle, et c’est exactement là où elle doit se trouver.
