Propositions innovantes pour réguler l’IA dans l’État de Washington

5 nouvelles propositions pour réguler l’IA dans l’État de Washington

Les législateurs de l’État de Washington prennent une nouvelle initiative pour réguler l’intelligence artificielle (IA), en présentant une série de projets de loi visant à réduire la discrimination, à limiter l’utilisation de l’IA dans les écoles et à imposer de nouvelles obligations aux entreprises développant des produits IA émotionnellement réactifs.

Cette année, les projets de loi se concentrent sur les enfants, la santé mentale et des décisions critiques telles que l’embauche, le logement et le prêt. Ces propositions pourraient impacter les fournisseurs de logiciels RH, les entreprises d’ed-tech, les start-ups de santé mentale et les plateformes d’IA générative opérant dans l’État.

Les propositions émergent alors que le Congrès continue de débattre de la supervision de l’IA sans actions concrètes, laissant aux États le soin d’expérimenter leurs propres garde-fous. Un rapport intérimaire récemment publié par le Groupe de travail sur l’IA de l’État de Washington souligne que l’approche « les mains libres » du gouvernement fédéral a créé un « écart réglementaire crucial qui rend les habitants de Washington vulnérables ».

Analyse des projets de loi

HB 2157

Ce projet de loi global réglementerait les systèmes d’IA dits à haut risque utilisés pour prendre ou influencer significativement des décisions concernant l’emploi, le logement, le crédit, les soins de santé, l’éducation, l’assurance et la libération conditionnelle.

Les entreprises développant ou déployant ces systèmes à Washington seraient tenues d’évaluer et de réduire les risques de discrimination, de divulguer quand des personnes interagissent avec l’IA et d’expliquer comment l’IA a contribué aux décisions défavorables. Les consommateurs pourraient également recevoir des explications sur les décisions influencées par l’IA.

Ce projet ne s’appliquerait pas aux outils à faible risque comme les filtres anti-spam ou les chatbots de service client basiques. Cependant, il pourrait affecter un large éventail d’entreprises technologiques, y compris les fournisseurs de logiciels RH et les grandes entreprises utilisant des outils de sélection automatisés. La loi entrerait en vigueur le 1er janvier 2027.

SB 5984

Ce projet de loi, demandé par le gouverneur Bob Ferguson, se concentre sur les chatbots compagnons et exigerait des divulgations répétées indiquant qu’un chatbot IA n’est pas humain, interdirait le contenu sexuellement explicite pour les mineurs et imposerait des protocoles de prévention du suicide. Les violations seraient soumises à la Loi sur la protection des consommateurs de Washington.

Les conclusions du projet soulignent que les chatbots compagnons peuvent brouiller la frontière entre l’interaction humaine et artificielle et peuvent contribuer à une dépendance émotionnelle ou à renforcer des idéations nuisibles, y compris l’automutilation, en particulier chez les mineurs.

SB 5870

Un projet de loi connexe va encore plus loin, créant une responsabilité civile potentielle lorsqu’un système d’IA est accusé d’avoir contribué au suicide d’une personne.

Selon ce projet, les entreprises pourraient faire face à des poursuites si leur système d’IA encourageait l’automutilation, fournissait des instructions ou ne dirigeait pas les utilisateurs vers des ressources de crise.

SB 5956

Ce projet cible l’utilisation de l’IA dans les écoles K-12, interdisant les « scores de risque » prédictifs qui étiquettent des élèves comme susceptibles de causer des problèmes, et interdisant la surveillance biométrique en temps réel telle que la reconnaissance faciale.

Les écoles seraient également interdites d’utiliser l’IA comme unique base pour des suspensions, expulsions ou renvois aux forces de l’ordre, renforçant ainsi que le jugement humain doit rester central dans les décisions disciplinaires.

SB 5886

Cette proposition met à jour la loi sur le droit à l’image de Washington pour couvrir explicitement les faux numériques générés par l’IA, y compris les clones vocaux convaincants et les images synthétiques.

Utiliser l’image générée par l’IA de quelqu’un à des fins commerciales sans consentement pourrait exposer les entreprises à des responsabilités, renforçant que les protections d’identité existantes s’appliquent à l’ère de l’IA, et pas seulement pour les célébrités et les figures publiques.

Scroll to Top