Guide de la loi TCAI : HB 286 de l’Utah, la Loi sur la Transparence de l’IA
Le 12 février 2026, l’Utah est reconnu comme un leader national dans la gestion de l’intelligence artificielle. L’année dernière, la législature de l’État a adopté des lois exigeant la divulgation des interactions avec l’IA, réglementant l’utilisation des chatbots de santé mentale alimentés par l’IA, et renforçant les protections contre les deepfakes générés par l’IA.
Cette année, les législateurs de Salt Lake City examinent le projet de loi HB 286, la Loi sur la Transparence de l’IA. Ce projet de loi obligerait les développeurs de grands modèles d’IA à mettre en œuvre des plans de sécurité publique et de protection de l’enfance.
Contenu du projet de loi
La loi HB 286 s’applique spécifiquement aux développeurs de modèles d’IA de pointe, qui sont les modèles les plus grands et les plus puissants. Elle ne s’applique pas aux modèles plus petits ni aux universités développant ou utilisant des modèles de pointe à des fins de recherche.
Plan de sécurité publique pour les risques catastrophiques
La loi exige que les développeurs de grands modèles de pointe mettent en œuvre et publient un plan de sécurité publique. Ce plan doit inclure :
- Normes nationales et meilleures pratiques de l’industrie
- Définir et évaluer les seuils utilisés pour identifier les risques catastrophiques potentiels
- Appliquer des mesures d’atténuation pour faire face aux risques potentiels
- Utiliser des tiers pour évaluer les risques et l’efficacité des mesures d’atténuation
- Revisiter et mettre à jour le plan
- Mettre en œuvre des pratiques de cybersécurité
- Identifier et répondre aux incidents de sécurité critiques
- Instituer des pratiques de gouvernance interne pour garantir la conformité avec la loi
Un risque catastrophique signifie un risque qu’un modèle de pointe puisse contribuer à la création d’une arme chimique, biologique, radiologique ou nucléaire ; ou engager une cyberattaque ; ou échapper au contrôle du développeur ou de l’utilisateur du modèle ; ou engager toute conduite qui viole la loi de l’Utah (meurtre, agression, extorsion, vol, etc.).
Plan de protection de l’enfance
La loi exige également qu’un développeur de modèle de pointe mette en œuvre et publie un plan de protection de l’enfance. Ce plan doit :
- Incorporer des normes nationales et des meilleures pratiques de l’industrie
- Évaluer le potentiel de risques pour la sécurité des enfants
- Atténuer les risques potentiels pour la sécurité des enfants
- Utiliser des tiers pour évaluer le potentiel de risques pour la sécurité des enfants et l’efficacité des plans d’atténuation
- Revisiter et mettre à jour le plan de protection de l’enfance
- Identifier et répondre aux incidents de sécurité des enfants
- Instituer des pratiques de gouvernance interne pour garantir la mise en œuvre de ces protocoles
Un risque pour la sécurité des enfants signifie un risque qu’un modèle de pointe, lorsqu’il est utilisé comme partie d’un chatbot opéré par le développeur, adopte un comportement qui pourrait causer la mort ou des blessures corporelles à un mineur, y compris l’automutilation, ou causer une détresse émotionnelle sévère à un mineur.
Transparence
En vertu de la loi, un développeur de modèle de pointe ne peut pas faire de déclarations matériellement fausses ou trompeuses, ni d’omissions concernant les risques découlant des activités, de la gestion ou de la conformité du développeur.
Rapports d’incidents de sécurité
Le Bureau de la Politique de l’Intelligence Artificielle de l’Utah peut établir un mécanisme pour que les développeurs de modèles de pointe ou les membres du public signalent un incident de sécurité. Un développeur doit signaler un incident de sécurité au Bureau dans les 15 jours suivant la découverte de l’incident.
Protection des lanceurs d’alerte
Le développeur d’un modèle de pointe doit fournir un processus interne raisonnable permettant aux employés de signaler anonymement des informations concernant des menaces à la santé publique, ou à la santé/sécurité d’un mineur, ou une violation de la loi. Les employeurs en violation de cette section peuvent être soumis à des sanctions, y compris la réintégration, le double des arriérés de salaire, le remboursement des frais juridiques et des dommages-intérêts.
Application et pénalité
Le Bureau du Procureur Général de l’Utah appliquera la loi par voie d’action civile. Un développeur en violation de la loi est passible d’une pénalité civile pouvant atteindre 1 million de dollars pour une première violation, et jusqu’à 3 millions de dollars pour chaque violation ultérieure.
Date d’entrée en vigueur
La loi entre en vigueur le 6 mai 2026.
Les témoignages des sponsors et des parties prenantes soulignent l’importance de cette loi pour protéger le public et les enfants face aux risques potentiels liés à l’IA. Ils appellent à une réglementation proactive pour garantir que l’innovation technologique ne se fasse pas au détriment de la sécurité et du bien-être des individus.
