Loi sur l’IA responsable au Texas : Ce que votre entreprise doit savoir avant le 1er janvier

La loi texane sur la gouvernance responsable de l’IA : Ce que votre entreprise doit savoir avant le 1er janvier

Vous avez peut-être entendu les nouvelles : lors de sa dernière session législative, le Texas a adopté une nouvelle législation qui prend une position précoce dans le paysage en constante évolution de la régulation de l’intelligence artificielle (IA). Cette nouvelle loi — la Loi sur la Gouvernance Responsable de l’IA du Texas (TRAIGA) — a été signée plus tôt cette année. Elle entrera en vigueur le mois prochain, le 1er janvier 2026, et crée un cadre réglementaire complet pour le développement et le déploiement de l’intelligence artificielle, imposant des obligations significatives tant aux agences gouvernementales qu’aux entités privées. Avec la date d’entrée en vigueur de la TRAIGA qui approche rapidement, les entreprises doivent comprendre leurs nouvelles obligations de conformité.

Résumé des points clés à connaître sur la TRAIGA

La TRAIGA établit de nouvelles règles de gouvernance de l’intelligence artificielle pour les entreprises opérant au Texas et préempte toute réglementation locale sur l’IA.

La définition des systèmes d’IA dans la TRAIGA est large — elle inclut plus que les systèmes d’IA générative (par exemple, les chatbots) — et elle s’appliquera donc probablement à un large segment d’entreprises opérant au Texas.

En vertu de la TRAIGA, les agences gouvernementales ont l’obligation de divulguer aux consommateurs qu’ils interagiront avec un système d’IA (mais elles ne sont pas tenues d’obtenir le consentement affirmatif du consommateur pour continuer l’interaction).

La TRAIGA crée également une obligation pour les prestataires de soins de santé de divulguer aux patients que l’IA sera utilisée en relation avec le service ou le traitement du patient.

La TRAIGA ne crée pas de droit d’action privé pour remédier aux violations ; au lieu de cela, elle est applicable par le Procureur Général du Texas et peut entraîner des sanctions civiles allant de 10 000 $ à 200 000 $ par violation (qui peuvent s’accumuler de manière continue, au quotidien).

Elle crée un sandbox réglementaire permettant aux entreprises de développer et de tester des systèmes d’IA sans avoir besoin d’obtenir des licences ou d’autres autorisations réglementaires en échange du partage d’informations avec l’État.

Résumé des actions à considérer avant le 1er janvier 2026

  • Mettre en œuvre et maintenir des politiques écrites sur l’IA qui expriment clairement l’intention, le but et l’objectif de votre entreprise pour le développement ou le déploiement de systèmes d’IA.
  • Établir un processus d’examen interne pour obtenir des retours internes et externes concernant le développement et le déploiement de l’IA.
  • Créer des processus internes pour suivre les informations pertinentes de vos systèmes d’IA, tester ces systèmes et effectuer des examens internes.
  • Décider de participer au programme de sandbox réglementaire de la TRAIGA.
  • Identifier les violations potentielles de la TRAIGA.

Application large de la TRAIGA

La TRAIGA s’applique à quiconque promeut, fait de la publicité ou mène des affaires au Texas, produit un produit ou un service utilisé par des résidents du Texas, ou développe ou déploie un système d’intelligence artificielle au Texas.

La définition des systèmes d’IA inclut tout système basé sur une machine qui, pour un objectif explicite ou implicite, infère des entrées qu’il reçoit pour générer des sorties, y compris des contenus, des décisions, des prévisions ou des recommandations.

Cette définition couvre plus que les systèmes d’IA générative ; elle inclut également l’IA prédictive et conversationnelle, ainsi que d’autres systèmes qui pourraient ne pas être considérés comme des « IA » par des experts de l’industrie technologique.

Obligations de divulgation des agences gouvernementales

La responsabilité la plus visible de la TRAIGA pour les consommateurs est que toute agence gouvernementale ayant un système d’IA destiné à interagir avec des consommateurs doit divulguer ce fait au consommateur avant ou au moment de l’interaction.

Les divulgations doivent être claires, évidentes, écrites en langage simple et exemptes de « dark patterns » qui pourraient nuire à l’autonomie des utilisateurs.

Obligations de divulgation pour les soins de santé

La TRAIGA impose également une obligation de divulgation aux prestataires de soins de santé concernant l’utilisation de l’IA en lien avec le service ou le traitement du patient.

Interdiction de la discrimination par les systèmes d’IA

La TRAIGA interdit aux entreprises de développer ou de déployer un système d’IA qui discrimine illégalement une classe protégée.

La responsabilité sous la TRAIGA dépend de l’intention de discriminer, et une preuve d’impact disparate n’est pas suffisante pour démontrer une telle intention.

Interdiction des systèmes d’IA incitant à des comportements nuisibles

La TRAIGA interdit également le développement ou le déploiement de systèmes d’IA qui manipulent le comportement pour inciter à l’automutilation, à des dommages à autrui ou à des activités criminelles.

Sanctions et opportunités de réparation

La TRAIGA ne permet pas de poursuites privées ; seules les plaintes peuvent être déposées auprès du Procureur Général du Texas, qui peut émettre une demande d’enquête civile pour déterminer si une violation a eu lieu.

Sandbox réglementaire et safe harbor

La TRAIGA offre également un sandbox réglementaire pour les entreprises, leur permettant de tester des systèmes d’IA sans obtenir de licences traditionnelles.

Un safe harbor est également créé pour les entreprises qui découvrent et corrigent des violations potentielles de la TRAIGA.

Conclusion et étapes clés

La passage de la TRAIGA reflète l’engagement du Texas à promouvoir l’innovation en matière d’IA tout en protégeant les droits des consommateurs. Les entreprises doivent se préparer dès maintenant pour assurer leur conformité avant l’échéance du 1er janvier 2026.

Scroll to Top