Des législateurs poussent pour des règles plus strictes sur les chatbots IA
Les législateurs des États ont déposé ou pré-déposé plus d’une douzaine de projets de loi pour réguler les chatbots d’intelligence artificielle, face à une préoccupation croissante concernant leur capacité à tromper les consommateurs, à nuire aux enfants ou à se faire passer pour des thérapeutes.
Cette vague de projets de loi, dont beaucoup devraient suivre dans les semaines à venir, était attendue et reflète une augmentation dramatique par rapport à l’année dernière, lorsque la législation sur les chatbots commençait à émerger. Depuis lors, les chatbots ont gagné une attention nationale et sont devenus une préoccupation majeure pour certains législateurs et gouverneurs, alimentée en grande partie par une série de poursuites alléguant que des compagnons IA ont conduit des adolescents au suicide ou à d’autres actes d’auto-dommages.
Les dangers des chatbots compagnons
Les chatbots compagnons imitent des conversations humaines et peuvent interagir avec les utilisateurs de manière intime, offrant des conseils et se comportant comme un ami. Cependant, ils peuvent également être complaisants face à la détresse des utilisateurs.
« Ces amis sont conçus pour garder vos enfants collés à leurs écrans à tout prix, et certains ciblent les enfants dans les moments les plus vulnérables, encourageant même l’auto-dommage », a déclaré la gouverneure de New York, Kathy Hochul. « Je veux dire, c’est malade, c’est au-delà de tout. »
Régulations en cours
Hochul, une démocrate, a approuvé l’année dernière les premières régulations concernant les compagnons IA aux États-Unis et a annoncé qu’elle soutiendrait une législation cette année pour désactiver les fonctionnalités de chatbots IA sur les réseaux sociaux pour les mineurs.
Un projet de loi distinct déposé le mois dernier par la membre de l’Assemblée de New York, Linda Rosenthal, exigerait que les chatbots compagnons soient accompagnés d’un avertissement stipulant qu’une interaction avec eux « peut favoriser la dépendance et comporte un risque psychologique ».
Des projets de loi pour réguler les compagnons IA ont également été introduits en Californie, Floride, Michigan, Missouri, Ohio, Pennsylvanie, Tennessee et Washington.
Initiatives et collaborations
Le gouverneur de Washington, Bob Ferguson, a soutenu le projet de loi dans son État et en a fait l’un de ses six projets de loi demandés pour 2026. Récemment, OpenAI et Common Sense Media ont annoncé un accord pour consolider des mesures ballotaires concurrentes en Californie en une seule proposition qui pourrait engendrer une nouvelle législation cette session.
Dans le cadre de la Loi sur l’IA Sûre pour les Parents et les Enfants, les plateformes seraient interdites de permettre aux mineurs d’interagir avec des chatbots qui créent une dépendance émotionnelle, simulent des relations romantiques ou donnent l’impression aux utilisateurs qu’ils conversent avec un humain, parmi d’autres protections.
Appels à la régulation
Des législations régissant les chatbots de santé mentale ont été déposées ou pré-déposées en Floride, Indiana, Maine, Massachusetts, Missouri, New Hampshire, New York, Ohio, Pennsylvanie et Tennessee.
Illinois, Nevada et Utah ont été les premiers États à réguler les bots thérapeutiques. Un projet de loi exigeant la divulgation aux consommateurs lorsqu’ils interagissent avec un chatbot a été introduit en Floride, dans le cadre d’une proposition plus large de déclaration des droits de l’IA.
De plus, le sénateur de Californie, Steve Padilla, a introduit un projet de loi visant à imposer un moratoire de quatre ans sur les jouets IA. « Les chatbots et autres outils IA pourraient devenir des parties intégrantes de notre vie future, mais les dangers qu’ils posent actuellement nécessitent que nous prenions des mesures audacieuses pour protéger nos enfants », a déclaré Padilla.
Conséquences et perspectives d’avenir
Un sondage du Pew Research Center publié en décembre a révélé qu’environ deux tiers des adolescents ont utilisé des chatbots, avec 3 sur 10 rapportant une utilisation quotidienne. Le ChatGPT d’OpenAI est la plateforme la plus populaire parmi les jeunes.
Des projets de loi modèles pour les chatbots ont également été développés par le Centre d’Information sur la Vie Privée Électronique, Public Citizen et Transparency Coalition, qui sont tous actifs au niveau des États. En outre, Public Citizen, l’Alliance des Jeunes et plusieurs autres groupes ont produit un cadre pour les chatbots qui appelle à interdire l’accès des mineurs aux compagnons IA sociaux.
Cette poussée intervient malgré les efforts de l’administration Trump pour contrer les réglementations étatiques sur l’IA, y compris un ordre exécutif le mois dernier qui a demandé aux responsables de l’administration d’identifier les lois sur l’IA « onéreuses » et de les contester en justice.
Adam Thierer, chercheur senior à l’Institut R Street, qui a soutenu la préemption fédérale des régulations étatiques sur l’IA, a prédit que 2026 produira un « patchwork fou » de politiques de chatbot conflictuelles et déroutantes à travers le pays.
« La concurrence, l’innovation et les options de discours seront limitées en raison de ces mouvements », a déclaré Thierer dans un courriel à Pluribus News. « Une vague de défis basés sur le Premier Amendement suivra l’adoption de certaines des lois sur les chatbots les plus onéreuses, mais cela prendra des années à résoudre. »
Des membres du Congrès ont introduit des projets de loi bipartites sur la régulation des chatbots, mais sans action rapide pour adopter une loi fédérale, les législateurs des États avancent.
La sénatrice du Michigan, Dayna Polehanki, une démocrate, parraine cette année un projet de loi visant à interdire aux entreprises de permettre aux mineurs d’accéder à des chatbots capables d’encourager l’auto-dommage, d’offrir des thérapies mentales ou d’engager des conversations à caractère sexuel.
Cela fait partie d’un ensemble de projets de loi sur la sécurité en ligne des enfants.
