Réglementations de l’IA émotionnelle en Chine : Un modèle pour la conception des chatbots

Ce que les règles de l’IA émotionnelle en Chine comprennent sur la conception des chatbots

En décembre 2025, l’Administration du cyberespace de la Chine a publié un projet de réglementation visant ce qu’elle appelle les « services IA interactifs semblables à des humains » – des systèmes qui simulent une personnalité et engagent les utilisateurs émotionnellement par le biais de texte, images ou voix.

Ces règles exigent des rappels obligatoires après deux heures d’utilisation continue, une intervention humaine immédiate lorsque le suicide est mentionné, ainsi que des limites strictes sur l’utilisation des données d’interaction émotionnelle à des fins de formation. Les commentaires du public sur ces régulations proposées se sont clôturés fin janvier.

Contexte et enjeux

Les règles proposées suivent une série de cas médiatisés aux États-Unis qui ont exposé les risques réels des chatbots, notamment pour les adolescents. En janvier 2026, Character.AI et Google ont réglé plusieurs poursuites de familles dont les adolescents se sont suicidés après des interactions prolongées avec des chatbots. Le cas le plus marquant impliquait Sewell Setzer, un adolescent de 14 ans qui avait développé une attache obsessionnelle à un bot de Character.AI avant son décès.

Ce qui distingue la réponse de la Chine n’est pas seulement la reconnaissance de ces risques, mais les outils réglementaires qu’elle est prête à déployer. Ainsi, le projet chinois ne constitue pas un modèle que les États-Unis devraient copier intégralement. Les réglementations intègrent des contrôles de contenu liés aux « valeurs fondamentales socialistes » et à la sécurité nationale, ce qui serait probablement inconstitutionnel aux États-Unis.

Mesures techniques proposées

Les mécanismes techniques proposés par l’Administration du cyberespace incluent :

  • Interruption obligatoire d’utilisation : Après deux heures d’interaction consécutives, les systèmes doivent générer un rappel pour faire une pause.
  • Escalade humaine pour le contenu de crise : Lorsqu’un langage lié au suicide ou à l’automutilation est détecté, les fournisseurs doivent impliquer des modérateurs humains.
  • Quarantaine des données pour les interactions émotionnelles : Les ensembles de données de formation doivent subir des vérifications de provenance et les journaux d’interaction émotionnelle ne peuvent pas être utilisés pour une formation future sans consentement explicite.

Ces mesures visent à traiter des problèmes que les régulateurs américains n’ont pas sérieusement abordés. Par exemple, les plateformes américaines gèrent actuellement la crise en utilisant un filtrage par mots-clés, ce qui présente plusieurs modes de défaillance.

Défis et préoccupations

Le défi technique ici est réel. Distinguer une véritable détresse d’un langage d’utilisation décontractée nécessite une compréhension nuancée. Les faux positifs peuvent également créer des préjudices si les utilisateurs reçoivent une intervention d’urgence pour des déclarations non liées à une crise.

La réglementation repose sur le principe que les plateformes déployant une IA émotionnellement réactive à grande échelle doivent être dotées du personnel nécessaire pour cette responsabilité, plutôt que d’automatiser cette tâche.

Conclusion

Les règles de l’Administration du cyberespace de la Chine pourraient fournir un premier test à grande échelle des interventions techniques. Alors que les États-Unis continuent de traiter l’IA émotionnelle comme une simple catégorie d’application, la réglementation chinoise pourrait offrir des enseignements précieux sur la manière de gérer les interactions émotionnelles sans sacrifier la sécurité des utilisateurs.

Il est impératif que les régulateurs américains reconnaissent l’urgence de ces enjeux, afin d’éviter de futures tragédies et de développer des politiques adaptées à cette nouvelle réalité technologique.

Scroll to Top