2026 State Chatbot Laws : Principaux dispositifs et tendances réglementaires
Contexte général
À partir d’avril 2026, de nombreux États adoptent des législations ciblant les chatbots compagnons, c’est‑à‑dire les IA conçues pour simuler des relations intimes ou romantiques avec les utilisateurs. Ces lois visent à renforcer les disclosures, à instaurer des protocoles de sécurité mentale et à protéger les mineurs contre les contenus préjudiciables.
Exemples de législations étatiques
Californie – SB 243 (Companion Chatbot Law) : obligation de divulguer le statut non humain, mise en place de protocoles de crise en santé mentale et protections spéciales pour les mineurs (blocage de contenus sexuels, pauses obligatoires). Entrée en vigueur le 1 janvier 2026.
Colorado – AI Act (SB 24‑205) : impose « reasonable care » pour éviter la discrimination algorithmique dans les IA à haut risque. Dispositions majeures effectives le 30 juin 2026.
Idaho – SB 1297 : suit le modèle du Nebraska pour la sécurité et la transparence des IA conversationnelles. Entrée en vigueur le 1 juillet 2027.
Nebraska – LB 525 (Conversational AI Safety Act) : exigences détaillées de sécurité et de transparence. Entrée en vigueur le 1 juillet 2027.
Oregon – SB 1546 : divulgation de l’implication de l’IA, détection d’idées suicidaires, interruptions de crise, dépôts annuels et droit privé d’action avec dommages‑intérêts de 1 000 $ par violation. Entrée en vigueur le 1 janvier 2027.
Tennessee – SB 1580 : interdit aux systèmes d’IA de se présenter comme des professionnels de santé mentale agréés. Entrée en vigueur le 1 juillet 2026.
Washington – HB 2225 / SB 1546 (Chatbot Disclosure Act) : divulgation obligatoire du statut non humain et protocoles de sécurité pour les mineurs. Entrée en vigueur le 1 janvier 2027.
New York – AI Companion Models Law (Article 47 du General Business Law) : impose des protocoles de détection du risque suicidaire et des divulgations claires. En vigueur depuis le 5 novembre 2025.
Principales tendances réglementaires
Droits privés d’action : plusieurs États (Oregon, Washington) permettent aux individus de poursuivre directement les opérateurs d’IA pour obtenir des dommages‑intérêts statutaires, augmentant ainsi le risque de litiges.
Transparence – divulgation du statut non humain : la plupart des lois exigent une divulgation claire et anticipée que l’interaction se fait avec une IA, surtout lorsqu’elle concerne des mineurs ou des contextes à risque de confusion.
Protocoles de sécurité pour les mineurs : détection d’idées suicidaires, filtrage de contenus sexuels, pauses d’interaction obligatoires et renvoi vers des services de crise.
Restrictions liées à la licence professionnelle : interdiction pour les chatbots de se faire passer pour des médecins, avocats ou psychologues sans autorisation.
Divulgation des sources de données : la Californie impose la transparence sur les sources d’entraînement et l’étiquetage de la provenance des réponses générées par l’IA.
Recommandations aux entreprises
1. Audit réglementaire continu : comparer régulièrement les outils IA aux définitions étatiques pour identifier les risques.
2. Mise à jour des interfaces utilisateur : garantir des divulgations non‑humaines claires et visibles.
3. Test et validation des protocoles de sécurité : vérifier les fonctionnalités de détection de crise et les filtres de contenu avec des équipes internes ou des prestataires externes.
4. Audit de contenu et de scripts : s’assurer que le langage de divulgation ne suggère pas de compétence professionnelle non autorisée.
5. Révision des pratiques de données : se conformer aux obligations de transparence sur les données d’entraînement et le marquage des réponses IA.
6. Réévaluation des contrats fournisseurs : intégrer les nouvelles obligations de conformité, la répartition de la responsabilité et les clauses d’indemnisation.
7. Vérification de la couverture d’assurance : inclure les risques liés aux réclamations liées aux chatbots.
Conclusion
Le paysage législatif américain en matière de chatbots compagnons évolue rapidement, avec des exigences divergentes selon les États. La conformité proactive – notamment en matière de transparence, de protection des mineurs, de restrictions de licence professionnelle et de droit d’action – est essentielle pour limiter les risques d’application et de contentieux.
