Le Sénat de Pennsylvanie adopte un projet de loi régulant les chatbots IA utilisés par les enfants et les adolescents
Alors que les chatbots d’intelligence artificielle (IA) non réglementés gagnent en popularité et suscitent des inquiétudes quant à la sécurité, les sénateurs de l’État ont presque unanimement adopté un projet de loi visant à réglementer les services de compagnons IA.
Des mesures de protection limitées
Le projet de loi, parrainé par la sénatrice Tracy Pennycuick (R-Montgomery), propose une série de garanties limitées pour les opérateurs de services de chatbots. Ces derniers sont définis comme des algorithmes d’IA générative qui simulent des relations humaines avec l’utilisateur. Certaines de ces mesures ne seront requises que lorsque l’opérateur sait ou soupçonne qu’un utilisateur est mineur. Cependant, le projet ne exige pas explicitement de vérification d’âge.
Les enjeux de la dépendance émotionnelle
Pennycuick a souligné que ces systèmes sont conçus pour simuler l’interaction humaine et que pour les utilisateurs vulnérables, ils peuvent sembler très réels. « Lorsque un jeune commence à compter sur une machine pour un soutien émotionnel sans protections adéquates, les conséquences peuvent être dévastatrices », a-t-elle déclaré.
Elle a également mentionné plusieurs poursuites judiciaires contre des entreprises d’IA dont les produits ont été accusés d’avoir contribué à des cas de suicide et d’automutilation.
Exigences pour les opérateurs de chatbots
Le projet de loi exigera que tous les opérateurs de compagnons IA prennent des mesures pour s’assurer que leurs produits ne promeuvent pas l’automutilation, le suicide ou la violence envers autrui. De plus, ils devront fournir aux utilisateurs des ressources réelles, comme le numéro d’une ligne d’assistance en cas de discussion sur des actes de harm.
Les opérateurs devront publier des protocoles connexes sur leur site web accessible au public.
Rappels et restrictions pour les mineurs
Lorsqu’il y a des raisons de croire qu’un utilisateur est mineur, le projet de loi exigera que les opérateurs informent les utilisateurs qu’ils ne sont pas humains, leur rappellent cela toutes les trois heures et leur suggèrent de faire une pause.
Lorsque les services sont utilisés par une personne que l’opérateur sait être mineure, ils seront également interdits de générer du contenu visuellement sexuellement explicite et d’encourager les utilisateurs à adopter des comportements sexuels explicites.
Tout chatbot proposé aux mineurs devra également informer les utilisateurs qu’il peut ne pas convenir aux personnes de moins de 18 ans.
Mesures d’application et conséquences
Le projet de loi charge le bureau du procureur général de l’État d’appliquer la loi et permettrait des sanctions civiles pouvant atteindre 10 000 $ pour les opérateurs de services IA qui enfreignent cette réglementation.
Dans un communiqué publié après l’adoption du projet de loi, un membre du Sénat a remercié Pennycuick et d’autres législateurs pour avoir « soutenu une législation de bon sens ». Il a ajouté : « Les dangers potentiels liés à la dépendance excessive à l’intelligence artificielle sont très réels, comme nous l’avons vu avec les chatbots en ligne jouant un rôle dans de nombreuses tragédies à travers le pays. Nous devons faire tout ce qui est en notre pouvoir pour protéger les enfants et les résidents vulnérables de ces interactions toxiques en ligne. »
Le projet de loi doit encore être adopté par la Chambre contrôlée par les démocrates et signé par le gouverneur Josh Shapiro pour devenir loi. Shapiro a déjà déclaré qu’il cherchait des moyens de réglementer les services de chatbots IA.
