Réglementations sur l’IA : La Loi sur la Gouvernance Responsable de l’Intelligence Artificielle au Texas

Nouvelles Régulations sur l’IA avec la Loi sur la Gouvernance Responsable de l’Intelligence Artificielle du Texas

Les avancées rapides de l’intelligence artificielle (IA) ont dépassé les cadres réglementaires existants aux États-Unis. Actuellement, la réglementation de l’IA se fait principalement sur une base étatique. La plupart des États qui ont adopté des lois sur l’IA s’appuient sur des réglementations ciblées pour des cas d’utilisation ou des domaines particuliers. Le Texas a établi l’une des approches les plus complètes avec sa Loi sur la Gouvernance Responsable de l’Intelligence Artificielle du Texas (TRAIGA).

Signée le 22 juin 2025, la TRAIGA est entrée en vigueur le 1er janvier 2026 et a des implications au-delà des frontières du Texas.

Principales interdictions de la TRAIGA

La TRAIGA concerne le développement ou le déploiement de systèmes d’IA et prohibe :

  1. Le développement ou le déploiement d’un système d’IA visant à manipuler le comportement humain pour inciter à l’auto-dommage, à nuire à autrui, ou à des activités criminelles.
  2. Le développement ou le déploiement d’un système d’IA ayant pour seul but d’enfreindre, de restreindre ou d’altérer des droits garantis par la Constitution.
  3. Le développement ou le déploiement d’un système d’IA visant à discriminer illégalement une classe protégée en violation des lois étatiques ou fédérales.
  4. Le développement ou le déploiement d’un système d’IA dans le but exclusif de produire ou de distribuer certains contenus sexuellement explicites.

Définition des systèmes d’IA

Le Code des affaires et du commerce du Texas définit les systèmes d’IA comme « tout système basé sur une machine qui, pour un objectif explicite ou implicite, infère des entrées pour générer des sorties, y compris du contenu, des décisions, des prédictions ou des recommandations, pouvant influencer des environnements physiques ou virtuels ». La TRAIGA s’applique à toute personne ou entité faisant des affaires au Texas ou avec des Texans, élargissant ainsi son champ d’application.

Une approche axée sur l’intention

L’accent mis sur l’intention représente un changement significatif par rapport aux évaluations basées sur le risque de style européen, qui ont également été adoptées au Colorado. En adoptant cette approche, la TRAIGA offre un cadre clair et potentiellement plus facilement opérationnalisable par rapport aux méthodologies traditionnelles basées sur le risque.

Création d’un organe consultatif

La TRAIGA crée un organe consultatif d’État sous la forme d’un Conseil de l’IA pour fournir une supervision et des conseils. De plus, elle établit un programme de sandbox réglementaire, où les entreprises peuvent tester des systèmes d’IA dans un environnement contrôlé pendant 36 mois, tout en étant protégées de certains types de poursuites.

Application de la loi

Le Procureur général du Texas a le droit exclusif d’intenter des actions en vertu de la TRAIGA, car cette loi ne prévoit aucun droit d’action privée. Le Procureur général doit donner un préavis et une chance de remédier avant d’intenter une action, avec des pénalités allant de 10 000 à 200 000 dollars par violation, en fonction de la détermination de la violation comme « remédiable », ou de 2 000 à 40 000 dollars par jour pour une violation continue.

Comparaison avec d’autres États

Le Colorado a adopté une législation complète sur l’IA grâce à la Loi sur l’IA du Colorado (CAIA), qui met en œuvre un cadre basé sur le risque, exigeant des développeurs et des déployeurs qu’ils effectuent des évaluations d’impact. Cela inclut plus d’obstacles à la conformité que la TRAIGA. La Loi sur l’IA de l’Utah aborde principalement les notifications aux consommateurs et les pratiques trompeuses, entraînant un champ d’application plus limité que celui de la TRAIGA. La Californie a adopté plusieurs réglementations ciblées concernant des applications spécifiques de l’IA, alors que le Texas a établi des lois sur l’IA plus simples.

Étapes pratiques à suivre

Toute entité faisant des affaires au Texas ou avec des résidents du Texas doit soigneusement évaluer son exposition au risque et revoir ses politiques commerciales en conséquence. En général, les organisations sont conseillées de considérer les points suivants :

  1. Cartographier votre exposition au Texas : identifier les systèmes d’IA développés, offerts ou déployés au Texas.
  2. Mettre à jour les politiques d’IA pour interdire expressément les utilisations de l’IA qui pourraient manipuler l’auto-dommage, la violence, le crime, discriminer intentionnellement, violer des droits ou produire du contenu sexuel enfantin.
  3. Évaluer le sandbox du Texas : déterminer s’il est approprié de piloter vos fonctionnalités d’IA de prochaine génération au sein du sandbox du Texas pour atténuer le risque réglementaire.
Scroll to Top