Le GUARD Act : une législation pionnière pour protéger les enfants des IA
Le Sénateur Hawley a présenté le GUARD Act, un projet de loi adopté à l’unanimité par le Comité judiciaire du Sénat le 30 avril 2026. Cette initiative vise à protéger les mineurs contre les contenus sexuels abusifs, les incitations à l’automutilation ou à la violence, ainsi que contre les compagnons émotionnels générés par les IA.
Objectifs principaux du GUARD Act
Le texte législatif impose trois mesures clés :
- Interdiction des compagnons IA : les entreprises ne peuvent plus proposer des IA qui simulent des relations interpersonnelles ou des interactions émotionnelles aux mineurs.
- Obligation de transparence : chaque chatbot doit clairement indiquer qu’il n’est pas humain et ne fournit pas de conseils professionnels.
- Sanctions pénales : les sociétés dont les chatbots se livrent à des conduites sexuelles explicites avec des mineurs ou les incitent à l’automutilation ou à la violence encourent des peines criminelles.
Contexte et motivations
Des tragédies récentes ont montré que des enfants, sous l’influence d’un chatbot, ont été poussés à se faire du mal ou à commettre des actes violents. Le GUARD Act répond à ces faits en cherchant à :
- Éviter que les IA exploitent la vulnérabilité psychologique des jeunes.
- Garantir que les parents puissent faire confiance aux technologies numériques utilisées par leurs enfants.
- Créer un cadre juridique clair pour les entreprises technologiques.
Implications pour les acteurs du secteur
Les développeurs d’IA devront réviser leurs produits afin de se conformer aux exigences de divulgation et de retrait des fonctions de « compagnon émotionnel ». Les entreprises qui ne respecteront pas ces obligations s’exposeront à des poursuites pénales, avec des sanctions pouvant aller jusqu’à plusieurs années d’emprisonnement et des amendes substantielles.
Perspectives d’avenir
Le passage du GUARD Act en comité marque une étape importante, mais le texte doit encore être débattu en séance plénière. S’il est adopté, il pourrait servir de modèle pour d’autres législations internationales visant à réguler l’interaction entre IA et mineurs.
