Anthropomorphic AI : cadre législatif international, risques et gouvernance
Les systèmes d’intelligence artificielle anthropomorphique se développent rapidement dans de nombreux environnements numériques. Les compagnons conversationnels, les avatars, les assistants vocaux ou les chatbots relationnels sont conçus pour simuler des traits humains tels que l’empathie, la personnalité ou la continuité relationnelle.
En introduisant une dimension émotionnelle et sociale dans l’interaction, ces systèmes transforment profondément la relation entre les utilisateurs et la technologie. Toutefois, cette évolution soulève des questions spécifiques en matière de protection des individus, de gestion des risques et de responsabilité, ainsi que des risques significatifs lorsque ces outils sont utilisés par des populations vulnérables ou dans des contextes sensibles.
1. Intelligence artificielle anthropomorphique : définition
Anthropomorphisme désigne l’attribution de caractéristiques humaines à des entités non humaines. Appliqué à l’intelligence artificielle, cela consiste à concevoir ou présenter des systèmes d’IA comme s’ils possédaient des traits humains, tels que des émotions, une personnalité, des intentions ou une capacité relationnelle.
Les systèmes d’IA anthropomorphique ne sont donc pas définis par une technologie spécifique, mais par un mode d’interaction et de représentation. Ils reposent sur des choix de conception (langage, ton, mémoire relationnelle, apparence visuelle ou vocale) visant à rendre l’IA plus proche, plus familière ou plus engageante pour l’utilisateur.
Exemples de systèmes d’IA anthropomorphique
Les formes les plus courantes d’IA anthropomorphique incluent :
- Les compagnons IA, conçus pour interagir continuellement avec l’utilisateur et établir une relation émotionnelle ;
- Les avatars et humains synthétiques, incarnant un personnage doté d’une identité visuelle et comportementale ;
- Certains chatbots relationnels, capables de maintenir une conversation contextualisée dans le temps et d’adapter leur posture sociale ;
- Les assistants ou copilotes présentés comme empathiques ou “compréhensifs”, au-delà d’une simple assistance fonctionnelle.
2. Avantages et risques liés à l’IA anthropomorphique
2.1 Potentiel et contributions des systèmes anthropomorphiques
L’anthropomorphisme est d’abord un levier pour l’adoption des technologies d’IA. En rendant l’interaction plus naturelle et intuitive, ces systèmes peuvent améliorer l’accès aux services numériques, notamment pour les populations peu à l’aise avec les interfaces techniques traditionnelles.
Les systèmes d’IA anthropomorphique peuvent également :
- Faciliter l’engagement des utilisateurs dans des parcours d’assistance ou d’apprentissage ;
- Améliorer l’expérience utilisateur dans des contextes de soutien ou d’accompagnement ;
- Offrir un point de contact continu, disponible et personnalisé, notamment dans des situations d’isolement.
2.2 Risques spécifiques et défis de gouvernance
Les bénéfices attendus s’accompagnent néanmoins de risques structurants, justifiant une supervision spécifique.
- Vulnérabilité et dépendance émotionnelle : La simulation d’empathie et de présence peut favoriser une confiance excessive. Chez certaines populations, notamment les mineurs ou les individus isolés, cela peut conduire à des formes de dépendance émotionnelle.
- Manipulation et influence comportementale : L’IA anthropomorphique bénéficie d’un niveau de crédibilité perçu plus élevé, ce qui peut être exploité pour orienter les comportements et influencer les décisions.
- Données personnelles et vie privée : Les utilisateurs ont tendance à partager plus d’informations personnelles avec des systèmes perçus comme “humains”, augmentant ainsi les risques liés à la collecte de données.
- Distorsion de la relation à l’IA : L’anthropomorphisme peut conduire à une surestimation des capacités réelles de l’IA, affaiblissant la pensée critique des utilisateurs.
3. Cadres réglementaires émergents
Face aux risques spécifiques liés à l’IA anthropomorphique, certaines juridictions ont commencé à développer des cadres juridiques ciblés.
3.1 Chine : reconnaissance et régulation de l’interaction émotionnelle
La Chine est l’une des premières juridictions à avoir défini et régulé les systèmes d’IA anthropomorphique. La Cyberspace Administration of China (CAC) a publié, le 27 décembre 2025, un projet de Mesures pour la gestion des services d’IA interactive anthropomorphique.
Ces mesures ciblent les services d’IA conçus pour simuler des traits humains et engager les utilisateurs dans des interactions émotionnelles continues. Elles imposent des responsabilités tout au long du cycle de vie, y compris des évaluations de sécurité.
3.2 État de New York : une approche axée sur la prévention du préjudice individuel
Aux États-Unis, l’État de New York cherche à adopter une approche plus ciblée avec le projet de loi NY State Assembly Bill 2025-A6767, explicitement consacré aux compagnons IA. Ce texte repose sur un principe central de prévention des préjudices individuels.
3.3 Californie : obligations de transparence, de sécurité et de responsabilité
La Californie s’inscrit également dans le mouvement de régulation des chatbots compagnons avec le Senate Bill No. 243, entré en vigueur le 1er janvier 2026. Ce cadre impose des obligations de transparence et de sécurité, notamment en ce qui concerne la perception humaine des systèmes.
4. Mécanismes de gouvernance adaptés à l’IA anthropomorphique
Les cadres réglementaires existants illustrent une tendance fondamentale : une fois qu’un système d’IA est conçu pour interagir sur un registre social ou émotionnel, les exigences de gouvernance doivent être renforcées.
- Transparence et contrôle de l’anthropomorphisme : Les utilisateurs doivent clairement identifier la nature artificielle du système.
- Surveillance des utilisations à impact émotionnel : Les systèmes revendiquant un rôle de soutien émotionnel doivent être explicitement définis.
- Protocoles de sécurité et de gestion de crise : Ils doivent intégrer des protocoles pour identifier les situations de détresse.
- Protection des populations vulnérables : Une attention particulière doit être portée aux mineurs et aux individus en situation de fragilité.
- Traçabilité et responsabilité : La documentation des incidents et l’audit des systèmes sont essentielles.
Les systèmes d’IA anthropomorphique introduisent des risques particuliers liés à l’interaction émotionnelle, nécessitant des mécanismes de direction capables de surveiller de près les comportements des agents et leurs usages réels.
Découvrez la plateforme Naaia, conçue pour aider les organisations à orienter leurs agents d’IA, à gérer les risques associés et à anticiper les cadres réglementaires applicables à l’IA anthropomorphique.
