Utah : Vers une extension des règles de sécurité pour les enfants aux technologies IA
Salt Lake City, Utah – 27 janvier 2026
Les législateurs de l’Utah s’engagent une fois de plus dans le domaine de la régulation technologique, en se concentrant cette fois sur les systèmes d’intelligence artificielle avancés et la sécurité publique.
Présentation du projet de loi H.B. 286
Le représentant Doug Fiefia a introduit le Artificial Intelligence Transparency Act (loi sur la transparence de l’intelligence artificielle) pour la session législative générale de 2026. Ce projet de loi obligerait les plus grandes entreprises d’IA opérant dans l’Utah à divulguer publiquement comment elles évaluent et atténuent les risques graves liés à leurs systèmes, notamment les préjudices affectant les enfants.
Cette proposition s’inscrit dans les efforts récents de l’Utah pour réguler les plateformes de médias sociaux, signalant l’intention de l’État de jouer un rôle plus important dans la manière dont les technologies numériques puissantes sont gouvernées, alors que le Congrès peine à s’accorder sur des règles nationales pour l’IA.
Exigences du projet de loi
Selon la H.B. 286, les entreprises d’IA concernées seraient tenues de :
- Rédiger et publier des plans de sécurité publique et de protection de l’enfance expliquant comment elles évaluent et atténuent les risques graves liés à l’IA.
- Suivre ces plans en pratique, plutôt que de les traiter comme des engagements volontaires.
- Rapporter les incidents de sécurité liés à l’IA.
- S’abstenir de représailles contre les employés qui soulèvent des préoccupations internes ou divulguent des échecs.
Un vide réglementaire
Les partisans du projet de loi soutiennent qu’il comble un vide réglementaire. Bien que de nombreuses entreprises d’IA aient adopté volontairement des cadres de sécurité internes, l’Utah n’exige actuellement pas qu’elles documentent ou divulguent ces efforts.
Le projet de loi vise à éviter la création d’une nouvelle agence de réglementation ou l’imposition de normes techniques prescrites. Au lieu de cela, il se concentre sur la transparence, obligeant les entreprises à expliquer publiquement comment elles gèrent les risques de sécurité à mesure que les systèmes d’IA deviennent plus capables et largement déployés.
Un modèle pour les autres États
L’Utah s’est déjà positionné comme un leader national en matière de réglementation technologique axée sur les enfants, notamment en matière de médias sociaux.
En mars 2023, l’Utah est devenu le premier État américain à adopter des lois restreignant l’utilisation des médias sociaux par les enfants, y compris des exigences de consentement parental et de vérification d’âge. Cela a signalé une approche législative agressive en matière de technologie et de sécurité des enfants.
Les responsables de l’État et les groupes de défense ont décrit ces mesures comme un leadership national dans la protection des jeunes en ligne, présentant les politiques de l’Utah comme un modèle à suivre par d’autres États.
Support public et implications
Le projet de loi H.B. 286 s’accompagne d’une enquête à l’échelle de l’État montrant une large préoccupation des électeurs concernant la supervision de l’IA. Selon cette enquête, 90 % des électeurs de l’Utah soutiennent l’exigence pour les développeurs d’IA de mettre en œuvre des protocoles de sécurité et de protection pour les enfants, et 71 % craignent que l’État ne régule pas suffisamment l’IA.
Limites et questions ouvertes
La H.B. 286 définit des limites claires concernant son champ d’application et son application. Le projet de loi s’applique uniquement aux « grands développeurs de pointe », définis comme des entreprises ayant entraîné des modèles d’IA avancés en utilisant au moins 1026 opérations de calcul et ayant déclaré au moins 500 millions de dollars de revenus annuels l’année précédente.
Le projet de loi donne aux entreprises la flexibilité de s’adapter à une technologie en évolution rapide. Cependant, il laisse ouvertes des questions sur la capacité de la divulgation publique à suivre le rythme des systèmes d’IA de plus en plus capables, surtout lorsque les échecs ne peuvent être visibles qu’après qu’un préjudice se soit produit.
L’application de la loi incombera au procureur général de l’Utah, qui pourrait engager des actions civiles contre les entreprises qui violent la loi, avec des pénalités pouvant atteindre 1 million de dollars pour une première violation et jusqu’à 3 millions de dollars pour des violations ultérieures.
Prochaines étapes
La H.B. 286 est prévue pour son premier test majeur aujourd’hui, mardi 27 janvier, lorsqu’elle sera examinée par le comité permanent des services économiques et de la main-d’œuvre de la Chambre. Le projet de loi fait partie de plusieurs mesures à l’ordre du jour du comité, et la réunion sera diffusée en direct au public via le site Web de la législature de l’Utah.
Si le projet de loi avance hors du comité, il se rapprochera d’un vote complet de la Chambre et d’un débat plus substantiel sur la manière dont les États devraient tenir les développeurs d’IA publiquement responsables des risques pour la sécurité.
