Les États avancent avec de nouvelles lois sur l’IA malgré l’opposition fédérale

États avancent avec de nouvelles lois sur l’IA malgré l’opposition fédérale

La innovation en intelligence artificielle (IA) est passée d’une phase expérimentale à une phase opérationnelle à une vitesse époustouflante. Les entreprises déploient des outils d’IA générative et agentique dans leurs campagnes marketing, exploitent l’apprentissage automatique pour élaborer des modèles de tarification, utilisent des chatbots pour l’engagement client et intègrent l’IA dans les domaines de l’emploi, de la santé et des workflows créatifs.

Alors que les questions concernant la construction, l’entraînement, le déploiement et la divulgation des modèles d’IA deviennent plus pressantes, les entreprises qui développent ou utilisent ces outils évoluent dans un paysage réglementaire incertain. Aucune loi fédérale complète régissant l’IA n’a été adoptée, laissant la place aux législatures des États pour tracer leur propre voie, dans un contexte où l’administration Trump privilégie une régulation légère — récemment exprimée par un décret exécutif de décembre.

Néanmoins, en 2025, des centaines de projets de loi liés à l’IA ont été proposés au niveau des États, et presque tous les États — 44 selon le dernier décompte — disposent d’au moins une loi sur l’IA en vigueur. En conséquence, un patchwork législatif se met en place, abordant diverses utilisations de l’IA, depuis les divulgations de chatbots et le marquage de performeurs numériques jusqu’aux avis de tarification algorithmique et aux règles d’utilisation dans les décisions d’emploi.

Régulation fédérale de l’IA

Au niveau fédéral, la seule loi majeure abordant directement l’IA concerne un préjudice très spécifique : les images intimes non consenties, notamment celles ou vidéos générées par IA, connues sous le nom de deepfakes.

La loi TAKE IT DOWN, signée le 19 mai 2025, criminalise la publication non consensuelle d’images intimes, exigeant des plateformes qu’elles retirent rapidement le contenu concerné et imposent des pénalités à la distribution.

Le Congrès a massivement soutenu cette loi, un exploit que peu d’autres projets au niveau fédéral ont réussi. La seule autre proposition semblable est le projet DEFIANCE, qui permettrait aux victimes de deepfakes d’intenter des poursuites civiles contre les fournisseurs d’IA. Ce projet est actuellement examiné par la Chambre.

Les États comblent le vide

En l’absence d’une réglementation fédérale complète, plusieurs États ont adopté leurs propres lois sur l’IA. En 2024, le Colorado, l’Utah et le Texas ont adopté des lois concernant l’IA. Ces lois diffèrent dans leurs détails, mais toutes visent à encadrer le développement et le déploiement de l’IA dans une optique générale, plutôt que de cibler des problématiques spécifiques.

Par exemple, la loi du Colorado prévoit un cadre pour lutter contre la discrimination algorithmique dans la prise de décisions automatisées dans des domaines clés comme l’emploi, la santé, l’assurance et le logement. Première de son genre dans le pays, elle devait entrer en vigueur en février, mais a été repoussée à juin pour permettre une discussion approfondie sur son champ d’application.

Malgré la volonté initiale de faire naître une vague de lois étatiques sur l’IA, l’élan s’est calmé, privilégiant une approche plus prudente et fragmentée.

Tendances réglementaires émergentes

Plusieurs tendances communes apparaissent dans les lois adoptées par les États, notamment :

  • Transparence et divulgation. Exiger que les entreprises informent les consommateurs lorsque l’IA est utilisée, ou lorsque certains contenus ou données générés par IA sont présents.
  • Technologies de prise de décision automatisée. Offrir aux consommateurs la possibilité de refuser le traitement automatisé de leurs données, notamment pour le profilage ou lors de décisions ayant un impact légal ou significatif.
  • Images explicites non consensuelles et deepfakes politiques. Légiférer contre la création et la diffusion de contenu explicite généré par IA.
  • Discrimination algorithmique. Exiger des divulgations lorsque des algorithmes utilisés pour fixer des prix ou prendre des décisions utilisent des données personnelles.

Défis posés par le décret exécutif

En décembre, l’administration Trump a publié un décret exécutif, intitulé “Assurer un cadre politique national pour l’intelligence artificielle”.

Ce décret favorise un cadre fédéral centralisé, minimise les charges réglementaires, et critique le patchwork législatif des États, évoquant notamment des risques de biais idéologiques et de régulation excessive au-delà des frontières étatiques.

Il demande aux autorités fédérales de contester en justice les lois étatiques qui pourraient être préemptées, de limiter le financement dans les États qui adoptent des lois inacceptables, et d’élaborer un cadre législatif fédéral unifié.

Il est à noter qu’un décret seul ne peut pas invalider une loi étatique, mais il peut influencer la mise en œuvre et la future réglementation fédérale. Pour l’instant, cependant, les lois étatiques demeurent en vigueur et conduisent la conformité en matière d’IA.

Tendances pour 2026

En 2026, on s’attend à voir une hausse de la transparence, des obligations accrues en matière de protection de la vie privée, et une régulation plus spécifique des modèles d’IA à haut risque dans certains secteurs.

Plus précisément, on prévoit :

  • Une surveillance accrue des modèles d’IA avancés, avec de nouveaux cadres législatifs dans certains États.
  • De nouvelles lois concernant les interactions des mineurs avec des chatbots ou des robots compagnons.
  • Un engagement accru dans le secteur de la santé, notamment pour la santé mentale.
  • Une poursuite des réglementations sur la prise de décision automatisée et la fixation des prix.

Les entreprises sont encouragées à continuer leurs efforts de conformité aux lois existantes, car cette réglementation, bien que complexe, finira probablement par s’établir de façon stable malgré l’incertitude actuelle.

Scroll to Top