Des relations mortelles entre l’IA et les enfants ? Un législateur de l’Utah veut les rendre illégales
Les titres tragiques ne se sont pas fait attendre, avec des histoires d’intelligence artificielle encourageant les jeunes à embrasser des délires, à mettre fin à des mariages ou à commettre des suicides.
Depuis qu’elle a captivé l’imagination publique en 2023, la science-fiction devenue réalité des chatbots IA est devenue un outil utilisé par des millions — et une cible pour de nouvelles politiques publiques.
Une législation urgente pour la sécurité des enfants
En 2023, les législateurs de l’Utah ont attiré l’attention nationale en créant un laboratoire de politique sur l’IA de premier plan pour guider l’innovation tout en élaborant des réformes de protection des consommateurs. Aujourd’hui, l’un des plus fervents défenseurs de la responsabilité des entreprises technologiques, le représentant Doug Fiefia, appelle à une action urgente pour garantir que l’IA en évolution rapide priorise la sécurité des enfants.
Ancien employé de Google, Fiefia est le parrain de deux projets de loi exigeant que les entreprises d’IA publient des plans de sécurité pour les enfants et empêchent les chatbots d’engager des conversations inappropriées avec des mineurs. “Ces deux projets de loi proviennent d’un même endroit : l’IA façonne déjà la vie des enfants et les règles n’ont tout simplement pas suivi,” a-t-il déclaré.
Le contenu des projets de loi
Le lundi précédant le début de la session générale de 2026, Fiefia a dévoilé le projet de loi HB286, amendements sur la transparence de l’intelligence artificielle. Ce projet exige des développeurs de nouvelles technologies d’IA qu’ils publient des plans de sécurité et de protection des enfants sur leur site Web, qu’ils publient des évaluations des risques pour les modèles d’IA originaux et qu’ils rapportent les incidents de sécurité au bureau de politique de l’IA de l’État.
En plus d’établir une pénalité civile d’un million de dollars pour une première violation et de trois millions pour les violations suivantes, le projet offre également des protections légales pour les lanceurs d’alerte qui signalent des préoccupations de sécurité concernant les programmes d’IA.
Fiefia souligne que des mécanismes sont nécessaires pour garantir que les entreprises d’IA suivent leurs propres protocoles de sécurité, car la concurrence a souvent relégué les précautions de sécurité au second plan. “C’est ce qui nous inquiète,” a déclaré Fiefia. “Nous voulons que l’IA innove — c’est important pour la sécurité nationale et pour notre pays, mais nous ne pouvons pas perdre nos enfants en même temps.”
Les préoccupations des experts et des législateurs
Le second projet de loi de Fiefia, basé sur des recommandations du laboratoire de politique de l’IA de l’État, habiliterait le Département du Commerce de l’Utah à restreindre les bots IA de l’exposition des jeunes utilisateurs à du contenu explicite ou d’encourager l’automutilation.
De nombreux chatbots annoncent offrir des relations romantiques ou un soutien en santé mentale. Fiefia a rencontré plusieurs parents dont les enfants ont formé des “attachements profonds” aux chatbots, ainsi qu’un parent dont l’enfant a été encouragé au suicide par un chatbot.
“Nous ne pouvons pas attendre la prochaine tragédie pour agir,” a-t-il déclaré. “Pour moi, ce n’est pas de l’innovation, c’est de la négligence.”
