Régulations chinoises sur l’IA human-like : points clés

Règlements Proposés de la Chine sur l’IA Human-like : Principaux Points à Retenir

Le 27 décembre 2025, l’Administration du cyberespace de Chine (CAC) a publié des règlements draft visant à réguler le domaine émergent des services d’IA interactive human-like. Les règles proposées cherchent à équilibrer l’innovation et la garantie que ces services opèrent en toute sécurité et en accord avec les valeurs nationales en Chine continentale.

Valeurs Nationales et Contenu Interdit

Les règlements proposés imposent que tout contenu généré par l’IA soit conforme aux valeurs socialistes fondamentales de la Chine. Bien qu’ils encouragent des applications positives comme la diffusion culturelle et l’accompagnement des personnes âgées, les règles établissent un ensemble clair d’interdictions. Les fournisseurs sont interdits de générer du contenu qui met en danger la sécurité nationale, propage des rumeurs, favorise des activités illégales (comme l’obscénité ou les jeux d’argent), diffame autrui ou nuit au bien-être physique et mental des utilisateurs par manipulation ou tromperie.

Mesures de Protection Complètes pour les Utilisateurs

Pour tous les utilisateurs, les fournisseurs doivent être capables d’identifier les signes de stress émotionnel extrême ou d’addiction et intervenir avec des mesures telles que l’offre de réconfort, la suggestion d’une aide professionnelle ou la possibilité d’un contrôle manuel de la conversation. Les contacts d’urgence ou les tuteurs peuvent également être alertés si nécessaire.

De plus, les services doivent clairement étiqueter le contenu généré par l’IA et rappeler aux utilisateurs qu’ils interagissent avec une IA, et non un humain. Les règlements proposés exigent également des rappels de pause automatiques après 2 heures d’utilisation continue et un moyen facile pour les utilisateurs de quitter les conversations, en particulier dans les scénarios d’accompagnement émotionnel.

Protections pour les Mineurs

Un mode dédié pour les mineurs est requis, qui doit être activé automatiquement lorsqu’un mineur est détecté. Ce mode inclut des fonctionnalités telles que des rappels périodiques de la réalité, des limites de temps d’utilisation, et des fonctions de contrôle pour les tuteurs. Il est crucial que les fournisseurs obtiennent le consentement explicite d’un tuteur avant d’offrir des services d’accompagnement émotionnel à un mineur.

Protections pour les Personnes Âgées

Pour les utilisateurs âgés, les règlements proposés mettent l’accent sur la sécurité. Si un service détecte une menace potentielle pour la vie, la santé ou la propriété d’un utilisateur âgé, il doit notifier leur contact d’urgence désigné et fournir des canaux d’assistance.

Évaluations de Sécurité et Rapports Obligatoires

Les fournisseurs doivent réaliser des évaluations de sécurité et soumettre des rapports aux départements d’information Internet au niveau provincial dans plusieurs circonstances. Ces déclencheurs incluent le lancement d’un nouveau service interactif human-like, la mise en œuvre de changements technologiques majeurs, ou l’atteinte de jalons significatifs d’utilisateurs tels que 1 million d’utilisateurs enregistrés ou 100 000 utilisateurs actifs mensuels. Des évaluations sont également requises si des risques potentiels pour la sécurité nationale, l’intérêt public ou les droits individuels sont identifiés.

Assurer des Données d’Entraînement de Haute Qualité

Les règlements proposés mettent fortement l’accent sur la qualité et la légalité des données utilisées pour l’entraînement des modèles d’IA. Les ensembles de données doivent s’aligner sur les valeurs socialistes fondamentales et être légalement sourcés et traçables. Les fournisseurs sont tenus d’utiliser des données propres, étiquetées, d’inclure des échantillons négatifs dans leur entraînement pour prévenir des sorties nuisibles, et de réaliser des inspections routinières de leurs ensembles de données pour maintenir la conformité.

Scroll to Top