Le cadre de politique fédérale sur l’IA de Trump vise à contrecarrer les lois des États
La Maison Blanche tente de réaliser quelque chose que Washington réussit rarement : prendre le contrôle d’une technologie en rapide évolution avant qu’une vague de lois étatiques sur l’IA ne se transforme en un système réglementaire irréversible.
L’administration du Président américain Donald Trump a publié aujourd’hui son Cadre de Politique Nationale pour l’Intelligence Artificielle : Recommandations Législatives, un document qui ressemble moins à des plans de sécurité de l’IA adoptés par les États qu’à un manuel pour affirmer le contrôle fédéral sur la gouvernance de l’IA.
Un effort pour bloquer les lois fragmentées des États
Au cœur du cadre de la Maison Blanche se trouve la préemption fédérale, le mécanisme juridique qui permettrait au Congrès de remplacer les lois étatiques sur l’IA et d’établir une norme nationale unique. Les États avancent déjà, en rédigeant et en adoptant leurs propres lois sur l’IA en l’absence d’action fédérale, consolidant ainsi un système réglementaire fragmenté difficile à démanteler.
Une stratégie adaptée à un Congrès bloqué
Le Congrès débat depuis des années de la réglementation de l’IA sans produire un cadre complet. La Maison Blanche tente de briser ce blocage en associant sa proposition à des mesures de sécurité en ligne pour les enfants, l’un des rares domaines où un accord bipartisan est encore possible.
Les “4 C” du cadre
Le cadre organise ses propositions substantielles autour de ce qu’il appelle les “4 C” : enfants, créateurs, conservateurs et communautés. Le premier pilier du cadre stipule : “Les services et plateformes d’IA doivent prendre des mesures pour protéger les enfants, tout en permettant aux parents de contrôler l’environnement numérique et l’éducation de leurs enfants.”
Cette attention portée aux enfants se traduit par des obligations en matière de sécurité et d’exposition à des contenus nuisibles. L’accent mis sur les créateurs reflète les inquiétudes croissantes concernant l’utilisation de matériel protégé par des droits d’auteur et la reproduction de ressemblances humaines. L’inclusion des “conservateurs” renvoie aux débats en cours sur les biais et la censure perçue dans les résultats de l’IA. La catégorie plus large des communautés sert de fourre-tout pour les impacts localisés ou sociétaux.
Déréglementation et conséquences
Tout au long du document stratégique, l’administration souligne que la politique sur l’IA doit être “minimement contraignante”, favorisant une approche plus légère de la réglementation. L’un des piliers de la stratégie stipule : “Les États-Unis doivent diriger le monde en matière d’IA en supprimant les obstacles à l’innovation, en accélérant le déploiement d’applications d’IA dans divers secteurs et en garantissant un large accès aux environnements de tests nécessaires à la construction de systèmes d’IA de classe mondiale.”
La stratégie du Premier Amendement
L’un des éléments les plus conséquents du cadre est son accent sur la protection des résultats de l’IA en tant que forme d’expression. L’administration suggère que certains types de réglementation, en particulier ceux qui exigeraient de modifier ou de restreindre les résultats, pourraient soulever des préoccupations concernant le Premier Amendement.
Selon l’un des piliers de la stratégie, “Les créateurs, éditeurs et innovateurs américains doivent être protégés des résultats générés par l’IA qui enfreignent leur contenu protégé, sans compromettre l’innovation légale et la libre expression.”
Le maillon faible : le Congrès
Pour toute son ambition, le cadre dépend d’une seule institution, le Congrès, qui est jusqu’à présent resté divisé et lent à agir, même si les technologies d’IA avancent rapidement. Bien que l’exécutif puisse orienter la direction, coordonner avec des alliés et faire pression par le biais de mécanismes de financement, il ne peut pas, à lui seul, établir une norme nationale contraignante ou préempter complètement la loi étatique.
Les progressistes et les démocrates du Congrès s’opposent à l’effort de créer une préemption fédérale ou un moratoire sur la législation étatique sur l’IA. Ils affirment que toute législation adoptée au niveau fédéral, plutôt que de bloquer l’action des États, devrait “se concentrer sur l’établissement d’un solide socle fédéral de protections, y compris des prohibitions sur les utilisations les plus dangereuses de l’IA, tout en préservant l’autorité des États pour aller plus loin dans l’adressage des nouveaux dommages.”
Cette tension entre un cadre fédéral qui remplace les États et un qui s’appuie sur eux devrait définir la prochaine phase du combat politique sur l’IA à Washington.
