Agenda Législatif de l’Administration Trump sur l’IA : Appel à la Préemption avec des Lacunes
Le vendredi dernier, l’administration Trump a publié son tant attendu Cadre National de Politique pour l’Intelligence Artificielle (Framework), dévoilant ses vues sur la manière dont l’IA devrait être réglementée – ou déréglementée. Ce cadre, qui a été prévisualisé par l’ordre exécutif de la Maison Blanche sur l’IA de décembre 2025, appelle à une loi fédérale de préemption qui se concentre sur la sécurité en ligne des enfants, équilibre les droits de propriété intellectuelle avec le développement de l’IA, élimine les obstacles à l’innovation et améliore la culture de l’IA dans la main-d’œuvre américaine.
Il demande au Congrès de ne pas créer de “nouvel organe fédéral de réglementation de l’IA”. Présenté comme un “cadre législatif national complet“, le Framework devra être adopté dans une législation détaillée. Ses dispositions sur la préemption fédérale de la réglementation de l’IA des États sont sans doute les plus conséquentes et les plus controversées.
Préemption Fédérale
Dans un communiqué, l’administration a déclaré : “Il est crucial que ce cadre soit appliqué de manière uniforme à travers les États-Unis. Un patchwork de lois étatiques conflictuelles nuirait à l’innovation américaine et à notre capacité à mener dans la course mondiale à l’IA.”
Le cadre appelle le Congrès à préempter les lois étatiques sur l’IA qui “imposent des fardeaux excessifs”, les remplaçant par une norme nationale unique. Cependant, il adoucit cela en prévoyant certains domaines où les États conserveraient leur autorité : les pouvoirs de police traditionnels pour faire appliquer des lois d’application générale, les lois de zonage régissant l’emplacement des centres de données, et les exigences concernant l’utilisation de l’IA par les États dans les achats, l’application de la loi et l’éducation publique.
Questions d’Interprétation
La langue de préemption va loin en affirmant que les États ne devraient pas être autorisés à réglementer le développement de l’IA et ne devraient pas pénaliser les développeurs d’IA pour la conduite illégale de tiers impliquant leurs modèles. De plus, il stipule que les États ne devraient pas imposer de fardeaux excessifs à l’utilisation de l’IA pour des activités qui seraient légales si elles étaient réalisées sans IA, prétendant empêcher les États d’imposer des exigences spécifiques à l’IA sur les applications déployées.
Cela soulève inévitablement des questions d’interprétation. Par exemple, il n’est pas clair comment les “lois d’application générale“, que le cadre préserverait, diffèrent des lois qui “régulent le développement de l’IA”, que le cadre interdirait.
Viabilité Politique
La viabilité politique du cadre reste une question ouverte. La préemption fédérale de la réglementation de l’IA a été un point de tension au sein même du caucus républicain. Les membres alignés sur la technologie et les libertariens favorisent une approche déréglementaire, tandis que les partisans des droits des États et les membres représentant des districts avec des initiatives d’IA au niveau étatique ont résisté à céder du terrain à Washington. L’année dernière, l’administration n’a pas réussi à inclure la préemption de l’IA dans son projet de loi de réconciliation budgétaire, soulignant ces divisions.
Réglementation au Niveau des États
Les États ne restent pas inactifs. Plus de 100 projets de loi sont en attente concernant uniquement les chatbots IA, et des dizaines d’autres traitent de la gouvernance de l’IA, de la sécurité et des applications spécifiques à l’industrie. L’appareil réglementaire au niveau des États prend de l’élan, ce qui sera de plus en plus difficile à inverser.
Questions de Politique Centrales Non Abordées
En plus de ce qui est couvert dans le cadre, certaines questions centrales de politique en matière d’IA ne sont même pas mentionnées. Par exemple, le cadre n’aborde pas la sécurité nationale, la cybersécurité, la gouvernance de l’IA, ou l’IA à haut risque. Indépendamment de la position réglementaire ou antiréglementaire, les décideurs du monde entier s’accordent à dire que ces questions présentent des vecteurs de risque critiques pour l’IA.
Protection des Enfants et Responsabilisation des Parents
Le cadre appelle le Congrès à renforcer la protection des enfants en ligne, y compris par des mesures pour prévenir l’addiction à la technologie et responsabiliser les parents dans la supervision de l’utilisation de la technologie par les enfants.
Respect des Droits de Propriété Intellectuelle
Peut-être la section la plus observée du cadre, les dispositions sur la propriété intellectuelle tentent de trouver un équilibre entre le soutien à l’innovation en matière d’IA et la protection des droits de propriété.
Prévention de la Censure et Protection de la Liberté d’Expression
Cette section reflète l’agenda plus large de l’administration contre l’IA “woke”. Elle appelle le Congrès à empêcher le gouvernement fédéral de contraindre les fournisseurs d’IA à interdire, contraindre ou modifier le contenu sur la base d’agendas partisans ou idéologiques.
Conclusion
Dans l’ensemble, le cadre est mieux compris comme une déclaration de principes plutôt qu’un plan législatif détaillé. Il signale la préférence claire de l’administration pour une réglementation légère et pro-innovation au niveau fédéral, l’industrie de l’IA définissant largement le rythme par l’autogouvernance et les normes industrielles. Que cette approche suffise à traiter les véritables dommages que l’IA cause déjà reste une question que le cadre évite largement.
