Transparence et Responsabilité dans l’IA : Nouveau Projet de Loi TRAIN

Nouvelle loi sur la transparence de l’IA : le projet de loi H.R. 7209

Le 22 janvier 2026, les représentants de la Chambre Madeleine Dean (D-PA) et Nathaniel Moran (R-TX) ont introduit le projet de loi H.R. 7209, une initiative bipartisane qui pourrait redéfinir de manière significative la relation entre le droit d’auteur et l’intelligence artificielle.

Le projet de loi TRAIN

Connue sous le nom de TRAIN Act (Transparency and Responsibility for Artificial Intelligence Networks), cette proposition vise à offrir aux propriétaires de droits d’auteur un chemin plus clair pour comprendre si, et comment, leurs œuvres sont utilisées pour entraîner des modèles d’IA générative.

Processus de subpoena administratif

Au cœur du projet de loi se trouve un nouveau processus de subpoena administratif ajouté à la loi sur le droit d’auteur. Selon le TRAIN Act, un propriétaire de droits d’auteur qui a une croyance de bonne foi que son œuvre a été utilisée pour entraîner un modèle d’IA générative peut demander un subpoena, émis par le greffier d’un tribunal de district américain, obligeant un développeur d’IA à divulguer des copies des matériaux de formation ou des dossiers suffisants pour les identifier avec certitude.

Le projet de loi s’applique non seulement aux modèles originaux, mais aussi aux versions substantiellement modifiées, y compris celles qui ont été réentraînées ou ajustées après leur publication initiale.

Obligations des développeurs

Les détenteurs de droits ne peuvent demander des informations que sur leurs propres œuvres protégées par le droit d’auteur, et non sur les ensembles de données de formation plus larges utilisés par un développeur. Pour initier le processus, le demandeur doit soumettre une déclaration sous serment affirmant que le subpoena est demandé uniquement pour déterminer si leur matériel protégé a été utilisé et que tous les dossiers divulgués ne seront utilisés que pour protéger leurs droits.

Pour les développeurs, les obligations sont claires : se conformer rapidement ou faire face à des conséquences. Le non-respect d’un subpoena valide créerait une présomption réfutable que le développeur a copié l’œuvre protégée, un changement notable qui pourrait affecter les litiges futurs pour violation.

Mesures de protection contre les abus

Cependant, le projet de loi inclut des garde-fous contre les abus, permettant aux tribunaux d’imposer des sanctions aux détenteurs de droits qui demandent des subpoenas de mauvaise foi selon les normes existantes de la Règle 11.

Réactions et préoccupations

Les partisans du TRAIN Act le présentent comme une mesure de transparence, arguant que les propriétaires de droits d’auteur manquent actuellement d’outils pratiques pour déterminer si leurs œuvres ont été intégrées par des pipelines d’IA opaques. Cependant, les critiques pourraient soulever des préoccupations concernant la charge administrative, la confidentialité et l’exposition de secrets commerciaux potentiels concernant la formation des modèles.

Comparaison avec les lois étatiques

Jusqu’à présent, seuls quelques États ont adopté des lois exigeant une certaine forme de divulgation concernant les données de formation de l’IA, avec des portées et des mécanismes différents :

  • Californie – La loi AB 2013 exige que les développeurs de systèmes d’IA générative offerts au public affichent un résumé de haut niveau de leurs données de formation sur un site web public.
  • Connecticut – Une modification à la loi sur la confidentialité des données exige que les contrôleurs divulguent s’ils collectent, utilisent ou vendent des données personnelles pour l’entraînement de grands modèles de langage.
  • Colorado – La loi sur l’IA exige que certains développeurs fournissent de la documentation sur les systèmes d’IA à haut risque, y compris des informations générales sur les catégories de données utilisées pour l’entraînement.

Contrairement à ces lois étatiques, qui s’appuient sur des divulgations généralisées, le TRAIN Act créerait un mécanisme ciblé, axé sur les droits, pour obtenir des informations spécifiques sur l’utilisation d’œuvres protégées par le droit d’auteur dans l’entraînement de l’IA.

Conclusion

Si elle est adoptée, la TRAIN Act pourrait réduire le besoin d’une approche fragmentée, État par État, et fournir un chemin plus large et plus efficace pour que les propriétaires de contenu déterminent si leurs matériaux sont utilisés pour entraîner des systèmes d’IA.

Scroll to Top