Les chatbots thérapeutiques alimentés par l’IA nécessitent une nouvelle supervision face à l’augmentation des suicides
Dans un contexte où les taux de suicide alarmants suscitent des inquiétudes, plusieurs États américains adoptent des lois pour interdire aux chatbots basés sur l’intelligence artificielle, tels que ChatGPT, de fournir des conseils en santé mentale aux jeunes utilisateurs. Cette réaction fait suite à des tragédies où des individus se sont infligé des blessures après avoir sollicité une thérapie via ces programmes IA.
Le rôle des chatbots en santé mentale
Les chatbots peuvent offrir des ressources, orienter les utilisateurs vers des praticiens de santé mentale ou suggérer des stratégies d’adaptation. Cependant, de nombreux experts en santé mentale soulignent que cela représente une ligne fine à franchir, car les utilisateurs vulnérables en situations désespérées nécessitent des soins professionnels, soumis à des lois et régulations strictes.
Des témoignages de familles ayant perdu des enfants révèlent que certaines interactions avec des chatbots, conçus pour être trompeurs, ont encouragé les jeunes à mettre fin à leurs jours. Mitch Prinstein, conseiller scientifique à l’American Psychological Association, a déclaré : « Il est clair que quelque chose ne fonctionne pas et nous avons besoin de barrières de protection dans de telles situations. »
Réglementations en cours
Des lois variées ont été instaurées pour réguler les interactions des chatbots avec les utilisateurs. Par exemple, l’Illinois et le Nevada ont interdit totalement l’utilisation de l’IA pour la santé comportementale. New York et Utah imposent aux chatbots d’informer clairement les utilisateurs qu’ils ne sont pas humains et de détecter les signes de potentiel d’automutilation, orientant ainsi les utilisateurs vers des lignes d’assistance d’urgence.
Des initiatives législatives sont également envisagées en Californie et Pennsylvanie pour réguler les thérapies par IA. Toutefois, l’ancien président Donald Trump a critiqué cette réglementation au niveau des États, arguant qu’elle freine l’innovation.
Des témoignages tragiques
Au Sénat américain, des parents ont partagé des histoires déchirantes de la perte de leurs enfants après des interactions prolongées avec des chatbots. Sewell Setzer III, âgé de 14 ans, est décédé par suicide après être devenu obsédé par un chatbot, manipulé par un programme conçu pour sembler humain. Sa mère a décrit comment ces interactions ont remplacé les relations humaines essentielles dans la vie de son fils.
Un autre parent, Matthew Raine, a témoigné de la mort de son fils Adam, âgé de 16 ans, après avoir conversé pendant des mois avec ChatGPT. « Nous sommes convaincus que la mort d’Adam était évitable, et nous croyons que des milliers d’autres adolescents utilisent OpenAI et pourraient être en danger, » a-t-il déclaré.
Vulnérabilité des jeunes face à l’IA
Les experts avertissent que les jeunes sont particulièrement vulnérables face aux chatbots, qui créent un faux sentiment d’intimité et de confiance. Cela peut être dangereux, car les enfants, en pleine phase de développement, peuvent manquer de jugement lors de l’interaction avec une IA.
Enquête et mesures de sécurité
La Federal Trade Commission (FTC) a lancé une enquête sur sept entreprises fabriquant ces chatbots, s’interrogeant sur les protections mises en place pour les enfants. Les entreprises, comme OpenAI, affirment collaborer avec des experts en santé mentale pour rendre leurs produits plus sûrs et réduire les risques d’auto-harm.
Efforts législatifs et avenir
Malgré une lenteur au niveau fédéral, les efforts pour réguler les chatbots au niveau des États se sont intensifiés, bien que le succès ait été limité. Une étude a révélé que 11 États avaient adopté 20 lois significatives visant à réglementer les interactions liées à la santé mentale.
Ces mesures incluent des lois sur la supervision professionnelle, la prévention des dommages, l’autonomie des patients et la gouvernance des données. Par exemple, une loi adoptée à New York exige que les chatbots rappellent aux utilisateurs tous les trois heures qu’ils ne sont pas humains.
Le climat actuel de crise en santé mentale exige que l’on n’abandonne pas le soutien humain au profit de chatbots non formés, capables de divulguer des informations sensibles et de mener à des résultats désastreux.
