Débat sur la conformité TCPA des agents vocaux IA

Les agents vocaux alimentés par l’IA suscitent le débat sur la conformité au TCPA

Les agents vocaux alimentés par l’intelligence artificielle pourraient-ils enfreindre la loi en s’adressant aux consommateurs ? Les experts en technologie IA agentique dans le secteur hypothécaire suggèrent que c’est déjà en train de se produire.

Les assistants vocaux numériques proposés par des prêteurs de premier plan, qui aident des centaines de milliers de clients à évaluer des options d’achat de maison et à faciliter des paiements hypothécaires mensuels, pourraient également enfreindre les protections fédérales contre les appels indésirables et d’autres lois sur le prêt.

Exemples de violations potentielles du TCPA

La Federal Trade Commission ne nécessite pas le consentement supplémentaire des consommateurs pour être contactés par une IA, qui est traitée comme un autodialer, explique Rishi Choudhary, cofondateur et PDG de Kastle. Sa société, créée en 2024, met également un accent fort sur la conformité et sert aujourd’hui certains des plus grands prestataires de services de l’industrie.

En plus de nécessiter le consentement du client, comme ne pas appeler des personnes inscrites sur le National Do Not Call Registry, la loi inclut d’autres étapes, y compris des restrictions sur les appels aux lignes fixes par rapport aux téléphones portables.

“La plupart des plateformes n’ont pas cela”, déclare Choudhary, faisant référence aux entreprises d’IA. “Elles ne vérifient pas les lignes fixes lorsqu’elles effectuent ces appels. Beaucoup de ces acteurs sont non conformes au TCPA.”

Les entreprises pourraient être condamnées à une amende de 500 $ par violation de la loi, ou jusqu’à 1 500 $ par violation si un juge détermine que les erreurs étaient intentionnelles ou conscientes.

Suivi des préférences des consommateurs

Les agents vocaux doivent également garder une trace des consommateurs qui leur disent de ne plus appeler, ajoute-t-il. Les experts en IA agentique conseillent également aux entreprises de renforcer les bases de données utilisées par cette technologie.

Mark McKinney, vice-président de l’intelligence de marché et de l’innovation chez Gryphon.ai, suggère aux entreprises d’inclure un agent de conformité dans le processus. Sa société propose un service qui aide une entreprise à confirmer que le consommateur appelé a donné un consentement écrit explicite pour être contacté, plus actuel qu’un opt-out interne.

“Avant que l’agent IA effectue réellement un appel, nous pouvons faire cette vérification finale pour nous assurer que l’appel ne se déroule pas illégalement”, dit-il.

Autres violations potentielles de l’IA agentique

En vantant leurs efforts de conformité, Kastle et Marr Labs affirment auditer les appels de leur IA agentique. Choudhary a déclaré que certains acteurs qui passent des appels pour des prêteurs directs aux consommateurs n’offrent aucune visibilité sur les flux de travail de leurs bots ou ce qui se passe au niveau de chaque appel.

“C’est dangereux, car lorsque l’auditeur arrive, vous n’avez rien à montrer”, a-t-il déclaré.

L’IA est également capable d’halluciner, prévient Grannan, rappelant l’exemple d’un agent IA offrant à un consommateur un taux hypothécaire ultra-bas. Les prêteurs doivent s’assurer que leurs outils semblables à des humains informent les consommateurs dans certains États qu’il s’agit d’intelligence artificielle, que l’appel est enregistré, ou que le répondant a le droit de se retirer.

“Notre défi en technologie est de nous assurer que nous n’avons jamais ce genre d’erreurs dans notre système”, a-t-il ajouté.

Scroll to Top