Comment les législateurs de l’État de Washington souhaitent réglementer l’IA
Yale Moon, un élève de terminale à Lake Washington High School, utilise l’intelligence artificielle générative dans son temps libre pour créer de fausses images et vidéos. Il ressent le besoin d’une frontière claire entre ce qui est réel et ce qui est généré par l’IA.
« Je sens que l’IA s’améliore et devient réaliste chaque jour », a-t-il déclaré aux législateurs de l’État. La réglementation de l’intelligence artificielle est un objectif clé pour les législateurs de l’État de Washington cette année. Cependant, les propositions soulèvent des objections de la part de l’industrie technologique et pourraient provoquer un affrontement avec le gouvernement fédéral.
Propositions de lois sur l’IA
Les législateurs envisagent des projets de loi exigeant des outils de détection de l’IA et des divulgations pour traiter les deepfakes et établir de nouvelles protections pour les enfants utilisant cette technologie. Ils espèrent que la législation ajoutera des garde-fous pour les chatbots IA tels que ChatGPT, protégera les utilisateurs contre la discrimination dans les algorithmes, abordera l’utilisation de l’IA dans les décisions disciplinaires scolaires, et exigera des négociations syndicales concernant l’utilisation gouvernementale de cette technologie en plein essor.
Le panel de la Chambre des représentants de l’État a examiné trois de ces mesures. La réglementation de l’IA a été un point de friction pour l’administration Trump. Le président a signé un décret menaçant de retirer le financement fédéral des États qui adopteraient des lois « lourdes » sur l’IA.
Propositions spécifiques
Le projet de loi de la Chambre 1170 obligerait les entreprises d’IA générative ayant plus de 1 million d’utilisateurs à rendre un outil de détection d’IA disponible. Il impose également aux entreprises de divulguer, par exemple par un filigrane, qu’une image, une vidéo ou un enregistrement audio a été généré par l’IA. L’industrie technologique s’oppose à cette législation, affirmant qu’il n’existe pas de méthode fiable pour détecter le contenu généré par l’IA.
Un autre projet de loi, la Chambre 2225, répond à des cas où des jeunes ont partagé leurs idées d’auto-mutilation avec des chatbots IA qui, dans certains cas, leur ont donné des moyens de se suicider. Les entreprises doivent prendre des mesures pour s’assurer que les chatbots ne génèrent pas de contenu sexuellement explicite ou de dialogues suggestifs.
Discrimination par l’IA
Un autre projet de loi, la Chambre 2157, se concentre sur l’utilisation d’algorithmes alimentés par l’IA dans des décisions cruciales telles que l’embauche et l’assurance médicale. Ce projet de loi exigerait des entreprises qu’elles prennent des mesures pour protéger les gens contre la discrimination potentiellement intégrée dans les algorithmes.
En l’absence de directives et de réglementations fédérales, la surveillance de l’État est essentielle. Les groupes commerciaux ont exprimé des préoccupations selon lesquelles ces mesures pourraient inciter les entreprises à cesser d’utiliser la technologie.
La législation est inspirée d’une loi en Californie entrée en vigueur ce mois-ci. Le gouverneur Bob Ferguson a demandé ce projet de loi, soulignant les défis auxquels les parents sont confrontés pour suivre l’évolution rapide de la technologie.
Si elle est adoptée, la législation devrait entrer en vigueur le 1er janvier 2027.
