Une IA neuro-symbolique pour découvrir des règles de fraude

Comment un réseau neuronal a appris ses propres règles de fraude : une expérience d’IA neuro-symbolique

La plupart des systèmes neuro-symboliques injectent des règles écrites par des humains. Mais que se passerait-il si un réseau neuronal pouvait découvrir ces règles lui-même ?

Dans cette expérience, un réseau neuronal hybride a été étendu avec un module d’apprentissage de règles différentiable qui extrait automatiquement des règles de fraude du type SI-ALORS pendant l’entraînement. En utilisant le dataset de Kaggle sur la fraude par carte de crédit (taux de fraude de 0,17 %), le modèle a appris des règles interprétables telles que :

SI V14 < −1,5σ ET V4 > +0,5σ → Fraude

où σ désigne l’écart type de la caractéristique après normalisation.

Le module d’apprentissage de règles a atteint un ROC-AUC de 0,933 ± 0,029, tout en maintenant une fidélité de 99,3 % aux prédictions du réseau neuronal.

Fait intéressant, le modèle a redécouvert indépendamment V14 — une caractéristique connue des analystes pour corréler fortement avec la fraude — sans qu’on lui demande de la rechercher.

Ce que le Modèle a Découvert

Avant l’architecture, la fonction de perte ou tout détail d’entraînement — voici ce qui est ressorti à la fin.

Après jusqu’à 80 époques d’entraînement (avec un arrêt précoce, la plupart des graines convergées entre les époques 56-78), le module d’apprentissage de règles a produit les résultats suivants :

Graine 42 — règle la plus claire (5 conditions, conf=0,95)

Règle de fraude apprise — Graine 42 :
SI V14 < −1,5σ ET V4 > +0,5σ ET V12 < −0,9σ ET V11 > +0,5σ ET V10 < −0,8σ ALORS FRAUDE

Graine 7 — règle complémentaire (8 conditions, conf=0,74)

Règle de fraude apprise — Graine 7 :
SI V14 < −1,6σ ET V12 < −1,3σ ET V4 > +0,3σ ET V11 > +0,5σ ET V10 < −1,0σ ET V3 < −0,8σ ET V17 < −1,5σ ET V16 < −1,0σ ALORS FRAUDE

Dans les deux cas, les faibles valeurs de V14 sont au cœur de la logique — une convergence frappante étant donné qu’aucune orientation préalable n’a été donnée.

De Règles Injectées à Règles Apprises — Pourquoi Cela Compte

Tous les modèles de fraude ont une frontière de décision. Cependant, les équipes de fraude opèrent en utilisant des règles. L’écart entre ce que le modèle a appris et ce que les analystes peuvent lire, auditer et défendre auprès d’un régulateur — est où les équipes de conformité vivent et meurent.

Dans une approche précédente, deux règles d’analystes ont été codées directement dans la fonction de perte : si le montant de la transaction est anormalement élevé et si la signature PCA est anormale, traiter l’échantillon comme suspect. Cette approche a fonctionné. Le modèle hybride a égalé les performances de détection du réseau neuronal pur tout en restant interprétable.

Mais il y avait une limitation évidente. Les règles étaient écrites par l’auteur. Ces règles codées à la main sont une bonne solution lorsque les modèles de fraude sont stables et que la connaissance du domaine est profonde. Mais elles sont inefficaces lorsque les modèles de fraude changent, lorsque les caractéristiques les plus importantes sont anonymisées, ou lorsque l’on souhaite que le modèle fasse apparaître des signaux auxquels on n’a pas pensé.

Une Architecture Simple mais Efficace

Le changement architectural est étonnamment simple. On ne remplace pas le MLP, mais on ajoute un deuxième chemin qui apprend à exprimer les décisions du MLP sous forme de règles symboliques compréhensibles par les humains. Les deux chemins fonctionnent en parallèle à partir de la même entrée et leurs sorties sont combinées par un poids apprenable α.

Le chemin MLP est identique à l’article précédent : trois couches entièrement connectées avec normalisation par lot. Le chemin des règles est nouveau. Alpha est un scalaire apprenable que le modèle utilise pour pondérer les deux chemins, il commence à 0,5 et est entraîné par descente de gradient comme tout autre paramètre.

Résultats : L’Apprentissage des Règles Fonctionne-t-il ?

Le cadre expérimental a utilisé le dataset de Kaggle sur la fraude par carte de crédit, composé de 284 807 transactions avec un taux de fraude de 0,173 %. Les performances de détection ont montré que le module d’apprentissage des règles se situait légèrement en dessous de la norme pure sur tous les indicateurs de détection, avec un compromis sur l’explicabilité.

La fidélité des règles était excellente, atteignant 0,993 ± 0,001, tandis que la couverture des règles était bonne, à 0,811 ± 0,031. La simplicité des règles, quant à elle, était en moyenne de 1,7 ± 2,1.

Conclusion

Cette expérience démontre comment un réseau neuronal peut découvrir des règles de fraude interprétables directement à partir des données, illustrant ainsi le potentiel de l’IA neuro-symbolique. La capacité d’extraire des règles auditées et compréhensibles est directement précieuse dans des domaines combinant événements rares, expertise de domaine et exigences de conformité.

Scroll to Top