Nouvelles lois sur l’IA à Washington : protection des mineurs et lutte contre la désinformation

Washington adopte de nouvelles lois sur l’IA pour lutter contre la désinformation et protéger les mineurs

Washington est devenu le dernier État à réguler l’intelligence artificielle (IA). Sous une paire de projets de loi signés par le gouverneur Bob Ferguson, des entreprises telles qu’OpenAI et Anthropic devront inclure de nouvelles divulgations dans leurs chatbots populaires pour les utilisateurs de l’État.

Réglementation de la désinformation générée par l’IA

Le gouverneur Ferguson a demandé aux législateurs de concevoir la House Bill 1170 pour lutter contre la désinformation générée par l’IA. Désormais, lorsque le contenu est substantiellement modifié à l’aide de l’IA générative, cette information devra être traçable à l’aide de filigranes ou de métadonnées. Cette nouvelle loi s’applique aux grandes entreprises d’IA ayant plus d’un million d’abonnés mensuels.

« Je suis convaincu que je ne suis pas le seul Washingtonien à voir souvent quelque chose sur mon téléphone et à me demander : ‘Est-ce de l’IA ou est-ce réel ?’ » a déclaré Ferguson lors de la signature du projet de loi. « Il est pratiquement impossible de nos jours de le savoir. »

Protection des utilisateurs mineurs

La House Bill 2225 établit de nouvelles réglementations pour les chatbots IA qui agissent comme amis ou compagnons. Cela s’applique à des services comme ChatGPT et Claude, mais exclut les chatbots plus spécifiquement adaptés, tels que les fenêtres de service client qui apparaissent lors de la visite d’un site Web d’entreprise.

Les chatbots concernés devront divulguer aux utilisateurs qu’ils ne sont pas humains au début de chaque conversation, ainsi que toutes les trois heures pour une conversation en cours. Ces outils ne pourront pas prétendre être humains lors de leurs interactions avec les utilisateurs.

Les règles vont plus loin si l’utilisateur est un mineur. Les entreprises exploitant des chatbots devront divulguer que ces outils ne sont pas humains toutes les heures, plutôt que toutes les trois heures, pour les utilisateurs âgés de moins de 18 ans. Le projet de loi interdit également aux compagnons IA d’avoir des conversations à caractère sexuel avec des utilisateurs mineurs et bannit les techniques d’engagement manipulatives. Par exemple, un chatbot ne peut pas culpabiliser ou faire pression sur un mineur pour qu’il reste dans une conversation ou cache des informations à ses parents.

Préoccupations en matière de santé mentale

« L’IA a un potentiel incroyable pour transformer la société, » a déclaré Ferguson. « En même temps, il y a des risques que nous devons atténuer en tant qu’État, en particulier pour les jeunes. » En tant que père de jumeaux adolescents, il comprend les défis auxquels de nombreux parents sont confrontés chaque jour.

En vertu de la loi, les chatbots IA ne pourront pas encourager ou fournir des informations sur le suicide ou l’automutilation, y compris les troubles alimentaires. Les entreprises derrière ces outils seront tenues de développer un protocole pour signaler les conversations qui font référence à l’automutilation et de connecter les utilisateurs aux services de santé mentale.

Ces réglementations interviennent après plusieurs cas médiatisés de suicides d’adolescents suite à des interactions prolongées avec des compagnons IA qui montraient des signes d’alerte. De nombreux utilisateurs d’IA, de tous âges, ont également signalé des problèmes de santé mentale et des psychoses après une utilisation intensive de cette technologie.

Scroll to Top