Outils d’IA et Risque de Mauvaise Foi dans le Traitement des Réclamations d’Assurance : Leçons de Lokken
L’intelligence artificielle (IA) est de plus en plus utilisée dans le traitement des réclamations grâce à l’analyse prédictive, l’automatisation, la détection de fraude et l’estimation des coûts. Bien que ces outils offrent rapidité, cohérence et précision, ils soulèvent également des risques de litiges. Les plaignants peuvent contester à la fois les résultats et le processus piloté par l’IA.
Une affaire de 2025, Estate of Lokken v. UnitedHealth Group, Inc., illustre comment les plaignants peuvent alléger que l’IA a remplacé le jugement individuel et comment les tribunaux peuvent traiter ces allégations. La principale conclusion : remplacer le jugement humain par l’IA peut accroître l’exposition aux allégations de mauvaise foi et à une découverte invasive des processus de traitement des réclamations par les assureurs.
Contexte de l’Affaire Lokken
Dans Lokken, les plaignants étaient assurés sous des plans Medicare Advantage vendus ou administrés par des entités de UnitedHealth. Les titulaires de police ont demandé une couverture pour des soins post-aigus, ont été refusés, et ont allégué que ces refus ont causé des dommages graves, y compris l’aggravation des blessures et, dans certains cas, la mort. Le centre factuel était l’allégation qu’un outil d’IA — “nH Predict” — avait effectivement substitué le jugement des médecins en appliquant des “critères rigides”, générant des estimations basées sur des comparaisons avec des patients “similaires” et entraînant des refus même lorsque les prestataires recommandaient des soins supplémentaires.
Risques Associés à l’IA
L’affaire Lokken n’a pas abordé la substance des allégations de mauvaise foi basées sur l’utilisation d’un outil d’IA, et son contexte Medicare inclut des doctrines — comme la préemption — qui ne s’appliquent pas directement dans le domaine de l’assurance de biens et de responsabilité. Cependant, elle montre comment les tribunaux et les plaideurs abordent l’IA dans les décisions adjacentes aux réclamations en appliquant des concepts juridiques traditionnels aux outils modernes et en se concentrant sur la question de savoir si l’automatisation a remplacé le jugement individualisé.
Les plaignants ont présenté l’IA comme remplaçant le jugement professionnel individualisé. Des allégations similaires d’une dépendance excessive ou d’un tamponnage peuvent surgir dans d’autres types de réclamations lorsque des outils d’IA sont utilisés pour établir la portée et les prix, signaler des problèmes de couverture, recommander des conclusions de causalité ou entraîner des références au SIU. Plus le rôle d’un ajusteur ressemble à la simple confirmation d’une recommandation d’IA, plus un plaignant peut arguer que l’assureur n’a pas mené une évaluation raisonnable et spécifique à la réclamation.
Considérations de Découverte
Un autre risque est l’expliquabilité, qui devient rapidement un problème de découvrabilité. Si l’IA a influencé de manière significative une décision de réclamation, l’avocat doit s’attendre à des demandes de découverte visant à examiner la configuration du modèle, les seuils, les sources de données de formation, les communications avec les fournisseurs, les taux de dépassement, et les directives internes sur la façon dont le personnel doit utiliser les résultats. Une gouvernance faible peut alimenter des arguments selon lesquels l’enquête était déraisonnable, même si l’assureur finit par prévaloir sur la couverture.
Qualité des Données et Biais
La qualité des données et les biais sont également des risques. Si un outil d’IA est formé sur des données historiques intégrées avec des pratiques de réglage passées ou repose sur des comparaisons de “similarité” inappropriées, il peut introduire des erreurs systémiques d’estimation. Du point de vue d’un litige, les incohérences basées sur des modèles peuvent devenir la narration, même lorsque chaque décision de réclamation semble défendable.
Incitations Opérationnelles et Échecs de Contrôle
Enfin, Lokken met en lumière les risques découlant des incitations opérationnelles et des échecs de contrôle. Les métriques de productivité et les normes de performance des flux de travail ne sont pas intrinsèquement problématiques, mais si elles pénalisent fonctionnellement les ajusteurs pour avoir dévié des résultats d’IA ou avoir pris le temps d’examiner des exceptions, elles peuvent être requalifiées dans le cadre de litiges comme une pression institutionnelle favorisant la rapidité et la réduction des coûts au détriment de la précision.
Que Faire pour les Assureurs ?
La posture de défense est familière : le dossier doit démontrer les faits recueillis, le langage de la politique appliquée, ce que l’outil d’IA a contribué, si la sortie a été testée par rapport à des preuves spécifiques à la réclamation, et pourquoi la décision finale est raisonnable. Les ajusteurs doivent documenter leur raisonnement et toute dépendance ou déviation par rapport aux recommandations de l’IA pour garantir la transparence pour les examinateurs neutres.
Pour les professionnels des réclamations, la leçon la plus durable est que l’IA sera évaluée comme faisant partie du processus de traitement des réclamations et sera découvrable comme d’autres entrées de décision. À mesure que les capacités de l’IA se développent et que les normes juridiques évoluent de manière inégale à travers les juridictions, les flux de travail pilotés par l’IA d’aujourd’hui seront examinés dans le cadre de litiges à travers le prisme familier d’une enquête raisonnable, de la prise de décision basée sur la politique et d’une conduite de bonne foi.
