Cadre Réglementaire de l’IA aux États-Unis : Entre Fédéral et Local

Réglementation de l’IA aux États-Unis : Cadre fédéral et lois des États

Le cadre juridique régissant l’intelligence artificielle (IA) aux États-Unis ne repose pas sur une seule loi fédérale comparable à un « code de l’IA ». Il est plutôt organisé autour de directives fédérales via des ordres exécutifs et d’un ensemble de lois étatiques (et parfois locales) qui créent des obligations directement applicables.

Résultat : un paysage fragmenté, où la conformité dépend fortement de l’État, du cas d’utilisation (recrutement, services essentiels, contenu génératif, etc.) et du rôle de l’opérateur (développeur, déployeur, fournisseur).

I. Le cadre américain : deux niveaux, pas de « loi américaine sur l’IA »

La réglementation de l’IA aux États-Unis est intégrée dans l’architecture institutionnelle du pays, qui repose sur une distribution des pouvoirs entre le niveau fédéral et les États.

Dans ce contexte, le cadre américain se caractérise par :

  • Une structure de gouvernance à deux niveaux combinant stratégie fédérale et législation adoptée par les États (et parfois les autorités locales).
  • L’absence d’une loi fédérale unique et complète comparable à la loi européenne sur l’IA.
  • Une direction fédérale largement structurée par des ordres exécutifs, qui définissent les priorités nationales et guident les actions des agences fédérales.
  • Des lois étatiques pouvant imposer des obligations juridiquement contraignantes sur les entreprises, appliquées par les procureurs généraux ou les autorités locales.

Les domaines prioritaires incluent : la lutte contre la discrimination, la transparence, la protection des consommateurs et la régulation du contenu généré.

Au sein de ce cadre, l’approche américaine met généralement l’accent sur le maintien de la leadership technologique et de l’innovation.

Ordres exécutifs : Le moteur fédéral

Un ordre exécutif est un acte normatif émis par le Président des États-Unis dans l’exercice de ses pouvoirs constitutionnels et/ou légaux. Il est juridiquement contraignant pour les agences et administrations fédérales, guide leurs priorités et peut influencer le secteur privé par le biais des marchés publics, des orientations réglementaires ou des normes fédérales.

Cependant, il ne constitue pas une loi adoptée par le Congrès et ne crée pas, en principe, un code de conformité directement applicable à toutes les entreprises.

En l’absence d’une loi fédérale complète sur l’IA, les États fédérés développent et adoptent leurs propres règles applicables aux systèmes d’IA. Cela entraîne un paysage réglementaire fragmenté où les obligations varient selon la juridiction et le cas d’utilisation.

Parmi les exemples les plus structurants :

  • Colorado : approche basée sur le risque ciblant la discrimination algorithmique (entrée en vigueur : 2026)
  • Californie : obligations de transparence pour l’IA générative et régulation des deepfakes (entrée en vigueur : 2026)
  • Texas : prohibitions de certaines utilisations, obligations ciblées et sanctions civiles (entrée en vigueur : 2026)
  • New York City : régulation des outils de décision automatisés dans le recrutement (en vigueur depuis 2023)
  • Utah : protection des consommateurs et des mineurs dans leurs interactions avec les systèmes d’IA (en vigueur depuis 2024)

II. Niveau fédéral : Stratégie exécutive et « Plan d’action sur l’IA »

1. Gouvernance fédérale structurée par l’exécutif

Au niveau fédéral, la politique de l’IA est principalement mise en œuvre par :

  • Ordres exécutifs
  • Cadres stratégiques (plans d’action, priorités nationales)
  • Exécution par les agences (mise en œuvre, marchés publics, infrastructures, positionnement international)

« Gagner la course : le plan d’action sur l’IA américaine »

Suite à l’ordre exécutif « Éliminer les obstacles à la leadership américain en intelligence artificielle » (EO 14179, 23 janvier 2025), la Maison Blanche a publié le plan stratégique « Gagner la course : le plan d’action sur l’IA américaine » (juillet 2025).

Ce document ne crée pas une loi fédérale unique, mais sert de feuille de route guidant l’action de l’administration (priorités, financement, marchés publics, infrastructures, diplomatie).

Le plan est structuré autour de trois piliers :

  • Accélérer l’innovation en IA
  • Construire l’infrastructure IA américaine
  • Diriger la diplomatie et la sécurité internationale en IA

2. Ordres exécutifs clés liés à la stratégie fédérale sur l’IA

Voici les textes structurants et leur rôle principal au sein de la stratégie :

  • Maintenir le leadership américain en intelligence artificielle (2019) : lance l’Initiative IA américaine et fixe les priorités fédérales (recherche, talent, cadre réglementaire).
  • Éliminer les obstacles à la leadership américain en intelligence artificielle (EO 14179, janv. 2025) : ancre une orientation fédérale « pro-innovation », appelant à l’élimination des obstacles perçus à la compétitivité de l’IA.
  • Conseil des conseillers du Président sur la science et la technologie (EO 14177, janv. 2025) : renforce la structure consultative scientifique et technologique au niveau présidentiel.
  • Promouvoir l’éducation à l’intelligence artificielle pour la jeunesse américaine (avr. 2025) : vise à développer l’éducation et les compétences en IA au sein du système éducatif.
  • Accélérer l’autorisation fédérale des infrastructures des centres de données (EO 14318, juil. 2025) : accélère certains processus d’autorisation fédéraux pour des infrastructures de centres de données liés à l’IA.
  • Promouvoir l’exportation de la technologie IA américaine (EO 14320, juil. 2025) : structure un effort fédéral coordonné pour soutenir les exportations de la technologie IA américaine.
  • Prévenir l’IA « woke » dans le gouvernement fédéral (EO 14319, juil. 2025) : établit des exigences/attentes pour les systèmes d’IA (notamment les LLM) utilisés par le gouvernement fédéral et peut influencer les marchés publics.
  • Assurer un cadre politique national pour l’intelligence artificielle (EO 14365, déc. 2025) : affirme un cadre national « minimalement contraignant » et vise à réduire la fragmentation, notamment en abordant les obstacles créés par certaines approches étatiques.

3. Assurer un cadre politique national pour l’intelligence artificielle : vers une meilleure coordination fédérale

Le tout dernier ordre exécutif « Assurer un cadre politique national pour l’intelligence artificielle » (décembre 2025) constitue une étape importante dans l’évolution de la gouvernance fédérale de l’IA aux États-Unis.

Le texte affirme l’intention de renforcer la cohérence du cadre réglementaire national et de limiter la fragmentation résultant de la multiplication des initiatives législatives des États.

À cette fin, l’ordre exécutif prévoit notamment :

  • La création d’un groupe de travail au sein du Department of Justice (DOJ)
  • L’analyse des lois et initiatives étatiques relatives à l’IA
  • L’identification des conflits potentiels avec les priorités fédérales en matière d’innovation et de compétitivité technologique

La loi sur l’IA du Colorado est spécifiquement mentionnée dans le texte comme un exemple de réglementation pouvant soulever de telles préoccupations. Un rapport du DOJ est attendu dans les mois à venir et pourrait éclairer les futures orientations politiques fédérales.

4. Le TRUMP AMERICA AI Act : une tentative d’harmonisation fédérale

Dans ce contexte, un projet de loi fédéral intitulé TRUMP AMERICA AI Act (The Republic Unifying Meritocratic Performance Advancing Machine Intelligence by Eliminating Regulatory Interstate Chaos Across American Industry Act) a été introduit pour établir un ensemble minimal d’exigences fédérales applicables aux systèmes d’IA.

Le texte prévoit notamment :

  • Établissement d’un devoir de diligence pour les développeurs de systèmes d’IA dans la conception et l’exploitation de leurs plateformes
  • Protocoles de gestion des risques pour les modèles avancés d’IA (modèles de pointe)
  • Obligations de transparence et de reporting pour les modèles à fort impact
  • Création d’un Federal AI Safety Institute (FAISI) au sein de l’National Institute of Standards and Technology (NIST)
  • Mécanismes pour encadrer la responsabilité des développeurs et des opérateurs de systèmes d’IA

Le projet aborde également des questions telles que l’utilisation des données pour l’entraînement des modèles, la sécurité des systèmes avancés, l’impact de l’IA sur l’emploi et la protection des mineurs dans les environnements numériques.

À ce stade, les développements législatifs liés à ce texte restent relativement limités en termes de visibilité publique, et le calendrier d’adoption demeure incertain.

III. États pionniers ayant adopté des réglementations contraignantes sur l’IA

En l’absence d’une loi fédérale unique, plusieurs juridictions ont adopté des textes applicables (ou sur le point de le devenir), avec des obligations concrètes (audit, transparence, devoir de diligence, prohibitions, sanctions).

Dans le même temps, l’écosystème réglementaire américain est également marqué par la présence de nombreux « microprojets de loi », des textes législatifs très courts et ciblés visant des acteurs ou des usages spécifiques de l’IA.

1. Texas – TRAIGA (Texas Responsible Artificial Intelligence Governance Act)

Objectif : Établir un cadre de gouvernance de l’IA au Texas, notamment par la prohibition de certaines pratiques à haut risque et l’établissement d’un régime de contrôle et de sanctions.

Champ d’application : Le texte s’applique aux organisations dont les systèmes d’IA sont développés, déployés ou exploités en lien avec le Texas (notamment lorsque des personnes situées au Texas sont concernées).

Obligations et prohibitions principales :

  • Interdictions ciblées : manipulation comportementale encourageant l’automutilation, la violence ou l’activité criminelle
  • Certaines formes de discrimination illégale
  • Notation sociale par des entités gouvernementales
  • Restrictions sur certaines utilisations biométriques par le gouvernement sans consentement (avec exceptions)
  • Interdiction d’objectifs visant à violer les droits constitutionnels
  • Interdiction de systèmes conçus pour produire ou distribuer certains contenus illégaux (y compris des deepfakes sexuels illicites, etc.)

Autres mécanismes :

  • Regulatory sandbox : mécanismes de test supervisé (tout en maintenant des prohibitions substantielles)
  • Safe harbor : conformité substantielle avec des cadres reconnus (par exemple, NIST AI RMF) pouvant soutenir une défense ou une atténuation dans certains contextes d’application

Sanctions et application :

Autorité : Procureur général du Texas (pouvoirs d’enquête et mécanisme de signalement en ligne)

Chronologie de conformité : logique de notification et de correction (période de correction) prévue par le texte

Pénalités civiles : plages fournies pour les violations non corrigées et « incurables », ainsi que des pénalités journalières pour les violations persistantes (avec injonctions possibles)

2. Colorado – SB 24-205 (Protections des consommateurs dans les interactions avec les systèmes d’IA)

Objectif : Prévenir la discrimination algorithmique dans les systèmes d’IA à haut risque utilisés pour des décisions « conséquentes » (emploi, logement, crédit, santé, services publics, etc.).

Champ d’application :

Applicable aux développeurs de systèmes d’IA à haut risque

Aux employeurs utilisant de tels systèmes dans l’État du Colorado

Aux systèmes d’IA affectant les résidents du Colorado

Le texte établit une distinction claire entre :

  • Développeur (entité concevant ou fournissant le système)
  • Déployeur (entité l’utilisant dans un contexte opérationnel)

Obligations principales :

  • Devoir général de diligence raisonnable : les développeurs et déployeurs doivent exercer une diligence raisonnable pour prévenir la discrimination algorithmique liée à l’utilisation de systèmes à haut risque.
  • Développeurs : documentation et information permettant la gestion des risques par les déployeurs ; transparence sur les limites/utilisations ; notification en cas de discrimination détectée.
  • Déployeurs : politique de gestion des risques, évaluations d’impact, surveillance, information aux individus lorsque l’IA est utilisée dans une décision conséquente (selon le cas), et mécanismes d’appel/de supervision humaine si nécessaire.

Transparence des interactions : obligation d’informer lorsque le consommateur interagit avec un système d’IA, sauf si cela est évident.

Sanctions et application :

L’autorité d’application revient exclusivement au procureur général du Colorado.

Aucun droit d’action privé pour les individus.

Les violations sont classées comme pratiques commerciales injustes ou trompeuses en vertu de la loi sur la protection des consommateurs du Colorado.

Pénalités civiles pouvant aller jusqu’à 20 000 $ par violation peuvent être imposées.

3. Californie – Transparence de l’IA générative (AB-2013 et SB-942)

La Californie a adopté deux textes majeurs axés sur la transparence dans l’IA générative, tous deux entrant en vigueur le 1er janvier 2026.

A) AB-2013 – Transparence des données d’entraînement (TDTA)

Objectif : Renforcer la transparence concernant les données d’entraînement des systèmes d’IA générative accessibles en Californie.

Champ d’application :

La loi s’applique aux développeurs de systèmes d’IA générative et aux fournisseurs offrant des systèmes ou services d’IA générative accessibles en Californie.

Elle cible les systèmes capables de générer du contenu synthétique tel que du texte, des images, de l’audio ou de la vidéo.

Les systèmes utilisés exclusivement à des fins internes et non accessibles au public sont exclus.

Obligation principale :

Publication d’un résumé de haut niveau des ensembles de données utilisés pour l’entraînement (y compris les sources, l’origine, le type et le volume de données, ainsi que les ajustements substantiels ou mises à jour), avec des mises à jour en cas de changements significatifs.

Sanctions et application :

Application par les mécanismes des autorités d’État, avec des conséquences civiles possibles en vertu du cadre juridique californien applicable.

B) SB-942 – Loi californienne sur la transparence de l’IA

Objectif : Augmenter la transparence concernant les médias générés par l’IA (audio, image, vidéo) et réduire la prolifération des deepfakes par le biais d’exigences techniques et contractuelles.

Champ d’application :

La loi s’applique aux « Fournisseurs couverts », c’est-à-dire aux entités qui :

  • Créent ou produisent un système d’IA générative
  • Avec plus de 1 000 000 d’utilisateurs mensuels
  • Rendent le système accessible au public en Californie

Le texte concerne uniquement le contenu d’image, audio et vidéo généré par l’IA. Le contenu textuel n’est pas couvert.

Exclusions : jeux vidéo, films, œuvres audiovisuelles ou expériences interactives ne reposant pas sur du contenu généré par l’IA.

Obligations principales :

  • Un outil de détection mis à disposition gratuitement
  • Divulgations latentes (métadonnées intégrées) et option de divulgations visibles
  • Obligations contractuelles lorsque le système est licencié à des tiers (maintien des capacités de divulgation et mécanismes de révocation si modifié)

Sanctions et application :

Pénalité civile : 5 000 $ par violation (chaque jour peut constituer une violation supplémentaire)

Application par le procureur général et certaines autorités locales.

4. New York City – Loi locale 144 (Outils de décision automatisés en emploi)

Contrairement aux lois étatiques, la Loi locale 144 est une réglementation municipale adoptée par la ville de New York, ciblant un cas d’utilisation spécifique : l’emploi.

Objectif : Réduire le risque de discrimination dans les décisions d’embauche et de promotion lorsque des outils automatisés sont utilisés, par le biais d’audits indépendants et de transparence envers les candidats.

Définition : Un Outil de décision automatisé en emploi (AEDT) signifie :

Un outil computationnel basé sur l’apprentissage automatique, la modélisation statistique, l’analyse de données ou l’intelligence artificielle, fournissant un résultat simplifié (par exemple un score, une classification ou une recommandation) utilisé comme facteur exclusif ou déterminant dans une décision d’embauche ou de promotion.

Ne sont pas considérés comme AEDT :

  • Filtres anti-spam, pare-feu, logiciels antivirus
  • Calculatrices, tableurs, bases de données
  • Ensembles de données ou compilations de données sans fonctions de décision automatisées

Obligations principales :

  • Audit indépendant de biais avant utilisation et de manière récurrente (annuellement en pratique)
  • Notification des candidats concernant l’utilisation d’un AEDT et des éléments clés d’évaluation
  • Publication d’informations relatives au dernier audit (date et résumé)

Sanctions et application :

Autorité : Département de la protection des consommateurs et des travailleurs de NYC (DCWP)

Amendes : 500 $ (première violation), puis 1 500 $ (violations suivantes)

Aucune action privée : application par l’autorité locale.

IV. Conclusion : Un cadre « fédéral et patchwork » nécessitant une approche de conformité structurée

La réglementation de l’IA aux États-Unis repose sur un équilibre :

D’un côté, une stratégie fédérale largement conduite par l’exécutif, définissant les priorités nationales pour l’innovation, l’infrastructure et la compétitivité.

De l’autre, des législations étatiques et locales créant des obligations juridiques concrètes concernant les audits, la transparence, la gestion des risques, les prohibitions ciblées et les sanctions.

Pour les organisations, le défi n’est pas seulement de « connaître la règle », mais de cartographier les utilisations de l’IA, d’identifier les juridictions pertinentes et de mettre en œuvre une gouvernance vérifiable (documentation, processus, contrôles, surveillance).

Scroll to Top