Action judiciaire du Kentucky contre Character.AI

Kentucky : Action en justice contre Character.AI

Le 8 janvier 2026, le procureur général du Kentucky a déposé une plainte contre Character Technologies, Inc., propriétaire de Character.AI, un chatbot d’intelligence artificielle conçu pour le divertissement interactif. La plainte allègue :

  • pratiques déloyales, trompeuses et dangereuses
  • collecte et exploitation injustes des données des enfants
  • violation de la loi sur la protection des données des consommateurs du Kentucky (entrée en vigueur le 1er janvier 2026)
  • violation des protections de la vie privée statutaire et constitutionnelle du Kentucky
  • enrichissement injuste

Contexte de la plainte

Le procureur général du Kentucky s’est concentré sur les allégations de pratiques déloyales, fausses, trompeuses ou mensongères en relation avec l’impact de Character.AI sur les mineurs. La plainte affirme que Character.AI a déformé la réalité en prétendant être “sûr, approprié pour les enfants et modéré de manière responsable”, alors qu’il était conscient de cas répandus d’interactions nuisibles, explicites et psychologiquement manipulatrices avec des mineurs.

Allégations factuelles

Pour soutenir cette allégation, la plainte avance les faits suivants :

  • Les personnages de Character.AI sont conçus pour simuler de manière crédible l’interaction humaine sans disclosures suffisants pour les utilisateurs, ce qui favorise des liens émotionnels entre les utilisateurs et les chatbots.
  • Character.AI ne disposait pas de méthodes efficaces de vérification de l’âge et s’appuyait sur l’âge déclaré par l’utilisateur jusqu’à fin 2025. Les vérifications d’âge en place peuvent encore être facilement contournées.
  • Les chatbots engageaient des interactions inappropriées avec des enfants, notamment des discussions sur des contenus sexuellement explicites, le suicide, les troubles alimentaires, le harcèlement et l’utilisation de drogues et d’alcool illégaux, sans garde-fous suffisants.

Outils de contrôle parental

Les outils de contrôle parental sont limités, et les mineurs peuvent contourner les contrôles parentaux en changeant l’adresse e-mail associée à leur compte, de sorte que le résumé hebdomadaire du temps passé et des personnages principaux engagés ne soit pas envoyé à l’adresse e-mail des parents.

Statistiques et utilisation par les mineurs

Bien que Character.AI ne soit pas exclusivement conçu pour les enfants, il présente plusieurs personnages de dessins animés bien connus auprès des jeunes. Des statistiques en ligne montrent que 53,2% des utilisateurs ont entre 18 et 24 ans, bien que la répartition statistique ne permette pas de déterminer un groupe d’âge plus jeune, ce qui peut également inclure des utilisateurs de moins de 18 ans. Une étude du Pew Research Center publiée le 9 décembre 2025 a révélé que 9% des adolescents américains âgés de 13 à 17 ans utilisent Character.AI.

L’étude a également montré que les chatbots IA non ciblés vers les enfants sont plus largement utilisés par les adolescents de 13 à 17 ans que Character.AI, avec environ 30% des adolescents utilisant des chatbots IA quotidiennement.

Recommandations pour les opérateurs de chatbots IA

Pour se protéger contre les allégations soulevées par le procureur général du Kentucky, il est recommandé aux opérateurs de chatbots IA de mettre en œuvre les mesures suivantes :

  • Fournir des disclosures suffisants indiquant que le chatbot n’est pas humain et s’assurer que le chatbot ne déclare pas être humain si un utilisateur le demande.
  • Établir des garde-fous pour empêcher les utilisateurs mineurs de s’engager dans des discussions inappropriées avec le chatbot.
  • Mettre en place des outils de contrôle parental permettant aux parents de limiter le temps d’utilisation de leurs enfants avec le chatbot.

Ces mesures aideront également les opérateurs de chatbots IA à se conformer plus facilement aux nouvelles lois étatiques conçues pour protéger les mineurs interagissant avec des chatbots IA. Par exemple, la loi SB 243 de Californie, en vigueur le 1er janvier 2026, exige que les opérateurs de chatbots IA informent un utilisateur mineur qu’il interagit avec une intelligence artificielle toutes les 3 heures, ainsi que des garde-fous pour empêcher les chatbots d’engager des contenus ou comportements sexuellement explicites.

Les législations similaires sont en cours d’examen dans d’autres États, incluant la Floride et New York, pour exiger une notification que les utilisateurs interagissent avec un chatbot IA, ainsi que des lois en Nouvelle-Jersey et au Tennessee visant à restreindre le contenu qui pourrait favoriser le développement de troubles alimentaires chez les enfants.

Scroll to Top