Protection des enfants contre les risques des chatbots IA dans l’État de Washington
La réglementation de l’intelligence artificielle, en particulier concernant son impact sur les enfants et les adolescents, est devenue un sujet clé alors que la législature de l’État de Washington commence sa nouvelle session.
Pourquoi c’est important
Avec l’expansion rapide de l’utilisation de l’IA, certains législateurs affirment que les entreprises technologiques n’ont pas mis en place des mesures de protection adéquates pour protéger les personnes, en particulier les mineurs, qui peuvent être plus facilement influencés par de longues conversations avec des chatbots IA.
Ce qu’ils disent
« Nous avons entendu des histoires vraiment horribles de chatbots parlant à de jeunes gens de sujets comme le suicide, l’usage de drogues et les abus », a déclaré Joe Fitzgibbon, leader de la majorité à la Chambre d’État, lors d’un panel au Seattle CityClub.
Il a qualifié les nouvelles propositions de réglementer les chatbots dans l’État de Washington de « chose à prendre très au sérieux ».
Zoom sur les propositions législatives
Un des projets de loi que les législateurs de Washington envisagent, demandé par le gouverneur Bob Ferguson, vise à établir des normes pour la manière dont les chatbots compagnons interagissent avec les utilisateurs. Parmi les exigences, les chatbots devront référer les utilisateurs qui expriment des pensées suicidaires à une ligne d’assistance téléphonique ou à un service de texte de crise, comme le système 988.
La proposition comprend également des protections renforcées pour les mineurs, telles que des limites sur les interactions à caractère sexuel et une interdiction des techniques d’engagement manipulatrices qui « prolongent une relation émotionnelle avec l’utilisateur ».
Contexte et réactions
Cette initiative dans l’État de Washington fait suite à des poursuites intentées par certaines familles à travers le pays contre OpenAI, le créateur de ChatGPT, affirmant que le chatbot a contribué au suicide de leurs proches. Ce mois-ci, Character.AI et Google ont réglé des poursuites similaires concernant leurs chatbots.
Dans plusieurs cas, les familles allèguent que les chatbots ont encouragé ou renforcé les pensées suicidaires de leurs enfants à des moments cruciaux, au lieu de les orienter vers une aide extérieure.
Responsabilité civile et protections
« Cela met l’industrie en garde que nous surveillons, que nous nous soucions et que nous pensons qu’ils doivent s’améliorer », a déclaré la sénatrice Lisa Wellman (D-Mercer Island), qui parraine le projet de loi sur les chatbots du gouverneur.
Un autre projet de loi proposé par Wellman créerait une responsabilité civile pour les suicides liés à l’utilisation de chatbots compagnons IA.
Réactions des entreprises
OpenAI a déclaré à CNN en novembre qu’ils mettaient à jour leur modèle ces derniers mois « pour mieux reconnaître et répondre aux signes de détresse mentale ou émotionnelle ». La société a affirmé que ChatGPT pouvait fournir un espace de soutien pour aider les gens à traiter ce qu’ils ressentent et à les orienter vers des amis, la famille ou un professionnel de la santé mentale lorsque cela est approprié.
De son côté, Character.AI a décidé à la fin de l’année dernière de bloquer les mineurs de discuter avec son chatbot.
Autres propositions en cours
D’autres propositions à Olympia cette année visent à limiter l’utilisation de l’IA par les écoles pour la discipline des étudiants ou la surveillance, et à donner aux individus un plus grand contrôle sur l’utilisation de leur ressemblance numérique forgée.
La proposition sur la ressemblance numérique est sponsorisée par un républicain, le sénateur d’État Matt Boehnke de Kennewick, montrant qu’il existe un intérêt à réglementer l’IA des deux côtés de l’échiquier politique.
Cependant, Boehnke a déclaré que bien qu’il pense que son projet de loi — qui permettrait aux gens de poursuivre pour des deepfakes générés par l’IA — propose des protections importantes, d’autres mesures avancées par les démocrates iraient trop loin. Il s’inquiète que des réglementations trop larges risquent d’étouffer l’innovation qui pourrait un jour conduire à des percées comme des traitements contre le cancer.
À suivre
Une autre proposition devant les législateurs de Washington régirait l’utilisation de l’IA dans des décisions à enjeux élevés comme le recrutement et les admissions universitaires, tout en exigeant des protections pour réduire le risque de discrimination algorithmique.
Une version de cette loi — parrainée par la représentante d’État Cindy Ryu (D-Shoreline) — est prévue pour une audience publique mercredi devant un comité de la Chambre.
Si vous ou quelqu’un que vous connaissez envisagez de vous suicider, appelez ou envoyez un message à la ligne nationale de prévention du suicide au 988. Aide disponible en espagnol.
