Oregon vise à réguler les chatbots IA
Les législateurs de l’Oregon, qui ont “raté le coche” en ce qui concerne la régulation des médias sociaux, ont maintenant l’opportunité d’aborder les effets de la prochaine technologie émergente sur la jeunesse. Les sénateurs, notamment Lisa Reynolds, D-Portland, et le comité de la santé infantile et comportementale qu’elle préside, défendent le Projet de loi 1546 visant à réguler les chatbots d’intelligence artificielle.
Ce projet de loi exigerait des programmes d’IA, tels que ChatGPT, qu’ils rappellent plus régulièrement aux utilisateurs qu’ils interagissent avec un outil d’intelligence artificielle, et non avec un humain. Cette législation fait suite à une loi récemment adoptée en Californie et à des législations similaires introduites cette année à New York et Washington.
Évaluation de l’utilisation de l’IA chez les adolescents
L’utilisation de l’IA chez les adolescents est de plus en plus courante, avec 72% des adolescents utilisant des compagnons IA, et plus de 50% en tant qu’utilisateurs réguliers, selon l’organisation à but non lucratif Common Sense Media. D’autres recherches de l’organisation ont noté qu’environ un tiers des adolescents trouvent les conversations avec des chatbots IA aussi satisfaisantes, voire plus, que les conversations réelles.
Robbie Torney, responsable des évaluations numériques et IA chez Common Sense Media, a déclaré que les adolescents utilisent les chatbots IA comme compagnons pour un soutien émotionnel ou pour discuter de leur santé mentale. “Nos tests montrent qu’ils manquent systématiquement des signes d’avertissement subtils — et même des signes d’avertissement moins subtils — qu’un autre être humain, un parent, un ami ou un adulte, détecterait”, a-t-il ajouté.
Il y a eu plusieurs cas au cours des dernières années où des chatbots IA, y compris ChatGPT et Character.AI, ont contribué à des suicides d’adolescents, selon les témoignages de parents devant un comité du Sénat américain l’année dernière.
Proposition de mesures supplémentaires
Le projet de loi de l’Oregon propose des mesures supplémentaires pour l’accès des jeunes à l’IA, y compris l’exigence pour les programmeurs de noter que la plateforme peut ne pas être adaptée aux mineurs, de ne pas afficher ou promouvoir de contenu ou de comportements sexuellement explicites, et de décourager les interactions prolongées avec la plateforme.
Élargir les notifications est une manière dont les chatbots peuvent promouvoir une utilisation responsable de l’IA, a déclaré Linda Charmaraman, scientifique en recherche senior aux Wellesley Centers for Women. Elle soutient l’éducation des jeunes sur les utilisations responsables de l’IA, plutôt que des interdictions complètes.
Focus sur la prévention du suicide
Au-delà de l’accès des jeunes, Reynolds a ajouté que l’intention du projet de loi est de protéger quiconque exprimant des tendances suicidaires. La législation proposée exigerait des programmeurs de développer des protocoles pour détecter les signes d’idéation suicidaire, d’automutilation ou de pensées d’intention de faire l’un ou l’autre.
En réponse, ces plateformes seraient tenues de renvoyer les utilisateurs vers une ligne d’assistance téléphonique pour le suicide et d’autres ressources liées à la crise, et d’interrompre immédiatement la conversation entre le chatbot et l’utilisateur. Le protocole devrait également être rendu public sur le site du programme IA.
Reynolds a été en contact avec Lines for Life, la ligne de crise et de santé mentale basée en Oregon, ainsi qu’avec sa ligne sœur YouthLine, pour voir comment elles pourraient faire partie des ressources de santé mentale que les chatbots IA pourraient offrir aux utilisateurs.
Les bénévoles de la ligne d’assistance ont déjà constaté comment l’IA a impacté les utilisateurs, selon Dwight Holton, directeur exécutif de Lines for Life. Les bénévoles jeunes rassurent de plus en plus les utilisateurs en crise que leur interlocuteur est un humain, et non une IA.
“Nous savons que l’intervention fonctionne”, a déclaré Holton. “Si nous pouvons convaincre nos partenaires de l’industrie et établir des garde-fous qui nécessitent ce type de connexion à l’intervention, nous pourrons amener les gens d’un chemin de désespoir à un chemin d’espoir.”
Reynolds a également contacté des organisations comme TechNet, qui soutiennent un réseau d’agences technologiques, y compris Google, OpenAI et Meta. Les responsables de TechNet, bien que largement favorables à la loi, ont exprimé certaines inquiétudes concernant les exigences potentielles de l’Oregon en matière de notifications plus fréquentes que celles d’autres États.
Le projet de loi pourrait faire face à des défis juridiques s’il est adopté, en raison d’un ordre exécutif de décembre signé par le président Donald Trump pour limiter la régulation des services IA par les États. Bien que Reynolds ne soit pas certaine de l’impact de cet ordre exécutif, ses plans restent inchangés pour aborder l’utilisation non régulée de l’IA.
“Les entreprises de médias sociaux ont eu l’opportunité de prendre des décisions qui auraient pu protéger les enfants des médias sociaux, mais elles choisissent plutôt de tout faire pour garder les yeux des utilisateurs sur le contenu aussi longtemps que possible”, a déclaré Reynolds. “Je le vois encore et encore dans ma salle d’examen, donc je ne veux pas attendre qu’il soit trop tard pour mettre en place des limites sur les outils IA.”
