L’Oregon impose des responsabilités aux fournisseurs de chatbots IA

Oregon avance la loi sur les chatbots IA avec une disposition de responsabilité privée

Les législateurs de l’Oregon ont approuvé le projet de loi sénatorial 1546, faisant avancer une mesure qui imposerait des exigences de sécurité, de divulgation et de responsabilité aux fournisseurs de chatbots d’intelligence artificielle (IA). Ce projet de loi a été envoyé au gouverneur pour signature, selon l’Assemblée législative de l’Oregon.

Le projet de loi a été adopté par les deux chambres et attend maintenant l’action de la gouverneure Tina Kotek. S’il est signé, il entrera en vigueur en 2027 et créera une exposition juridique directe liée à la manière dont les chatbots interagissent avec les utilisateurs, selon un article publié par Mondaq le 20 mars.

Réglementation des “compagnons IA”

La Transparency Coalition a rapporté en février que le SB 1546 régule les “compagnons IA”, des systèmes conçus pour simuler des relations humaines continues par le biais d’interactions personnalisées. Les législateurs passent des règles de divulgation à la régulation du comportement des systèmes en temps réel et des résultats en aval.

Cette mesure arrive alors que l’IA conversationnelle s’étend à travers des cas d’utilisation pour les consommateurs et les entreprises, y compris le service client, le soutien en santé mentale, les conseils financiers et l’éducation. Les régulateurs se concentrent sur la manière dont ces systèmes influencent la prise de décision et le comportement dans des contextes sensibles.

Exigences de transparence et d’intervention

Le projet de loi exige que les opérateurs divulguent clairement que les utilisateurs interagissent avec une IA et maintiennent des protocoles de sécurité documentés, selon l’Assemblée législative de l’Oregon.

Selon Mondaq, le projet de loi mandate également une intervention active dans des scénarios à haut risque. Les systèmes doivent détecter les signaux d’idées suicidaires ou d’automutilation, interrompre les conversations et orienter les utilisateurs vers des ressources de crise. De plus, le projet de loi interdit les sorties pouvant encourager des comportements nuisibles ou aggraver la détresse émotionnelle.

Protection des mineurs

Le projet de loi impose des exigences plus strictes pour les mineurs. Les plateformes doivent émettre des divulgations répétées, restreindre le contenu à caractère sexuel explicite et éviter les fonctionnalités qui incitent à la dépendance émotionnelle ou à un engagement prolongé. Les entreprises doivent agir lorsqu’il y a une “raison de croire” qu’un utilisateur est mineur, même sans confirmation explicite, selon la Transparency Coalition.

Droit privé d’action

Le projet de loi crée un droit privé d’action. Les individus peuvent poursuivre les opérateurs pour violations et demander des dommages-intérêts statutaires de 1 000 $ par violation. Ce modèle d’application déplace le risque de conformité des régulateurs vers les utilisateurs. Chaque interaction peut créer une exposition à la responsabilité, et la loi ne définit pas comment les violations sont comptées dans des conversations continues. Cette ambiguïté augmente le risque de réclamations cumulatives liées à une seule session utilisateur.

Application large

Le projet de loi s’applique largement aux entreprises déployant l’IA conversationnelle dans des domaines tels que la santé, les services financiers, l’éducation et le soutien client. Les systèmes qui personnalisent les réponses, stockent le contexte utilisateur ou simulent l’engagement émotionnel sont inclus dans le champ d’application, selon les rapports de Mondaq. Les entreprises doivent redessiner les systèmes de chatbot pour inclure une surveillance en temps réel, des déclencheurs d’intervention, des journaux d’audit et des voies d’escalade. La loi transforme la sécurité d’un principe de conception en une exigence légale directement liée aux sorties système et aux résultats utilisateurs.

Scroll to Top