Nouvelle législation en Floride sur l’utilisation de l’IA dans le traitement des sinistres

Nouvelle législation proposée en Floride concernant l’utilisation de l’IA dans le traitement des réclamations

La Floride propose une législation visant à renforcer le rôle de l’humain dans le traitement des réclamations d’assurance, en réponse à la montée de l’utilisation de l’intelligence artificielle (IA) dans ce domaine. Le projet de loi HB 527, accompagné du projet de loi SB 202, stipule que l’IA, les algorithmes et les systèmes d’apprentissage automatique ne peuvent pas être la seule base pour ajuster ou refuser une réclamation, que ce soit en tout ou en partie.

Exigences de révision humaine

Lorsque les assureurs envisagent d’utiliser des systèmes algorithmiques ou d’IA, ils doivent détailler dans leur manuel de traitement des réclamations comment ces systèmes seront utilisés et comment ils respectent la loi. La personne responsable de la révision des refus de réclamation doit être un professionnel humain qualifié, c’est-à-dire une personne ayant l’autorité d’ajuster ou de refuser une réclamation selon le Code des assurances de Floride.

Procédure de révision des réclamations

Avant de procéder à l’ajustement ou au refus d’une réclamation, le professionnel doit :

  • Analyser les faits de la réclamation et les termes de la police d’assurance indépendamment de tout système d’IA ou d’algorithme,
  • Vérifier l’exactitude de toute sortie générée par ces systèmes,
  • Déterminer si la réclamation ou une partie de celle-ci n’est pas payable selon les termes de la police d’assurance et doit être refusée ou si le montant de la réclamation doit être réduit.

Réactions et implications

Les sponsors de la législation affirment que ce projet de loi « répond à un défi croissant dans nos marchés d’assurance » en offrant un garde-fou clair et raisonnable contre les décisions basées sur des algorithmes.

En 2023, l’Association nationale des commissaires aux assurances (NAIC) a approuvé un bulletin modèle sur l’utilisation de l’IA par les compagnies d’assurance, soulignant la nécessité de processus et de contrôles pour éviter les inexactitudes potentielles, les biais discriminatoires et les vulnérabilités des données.

Ce bulletin rappelle aux assureurs les lois réglementaires établies, telles que le Modèle de loi sur les pratiques commerciales déloyales, qui régulent les méthodes de concurrence déloyales ou les actes déceptifs. Il souligne que la gouvernance et les contrôles sur les systèmes d’IA sont nécessaires pour se conformer à ces lois.

Conséquences possibles

Il est probable que cette législation proposée fasse l’objet d’un défi au niveau fédéral, surtout après que le Président a récemment signé un décret exécutif interdisant aux États d’appliquer leurs propres lois régissant l’intelligence artificielle.

Scroll to Top