Cadre Législatif National sur l’IA Publié par la Maison Blanche
Ce matin, la Maison Blanche a publié un document de quatre pages intitulé « Cadre Politique National pour l’Intelligence Artificielle », qui s’appuie sur plusieurs mois de déclarations politiques de l’administration Trump concernant les rôles des gouvernements étatiques et fédéraux dans la réglementation de l’IA.
Cela survient seulement deux jours après que le sénateur Marsha Blackburn (R-TN) ait publié un projet de discussion de 300 pages du « TRUMP AMERICA AI Act », qui vise à codifier les ordonnances exécutives du président Trump sur l’IA. Malgré des priorités communes, les deux documents divergent sur des points tels que le droit d’auteur, la responsabilité des développeurs, et la Section 230.
Les Sept Domaines de Focalisation du Cadre Politique
Le cadre politique de la Maison Blanche couvre sept catégories, mais quatre sont particulièrement importantes pour les entreprises déployant ou développant l’IA :
- Préemption fédérale des lois étatiques sur l’IA. Les États seraient interdits de réglementer le développement de l’IA. Ils ne pourraient pas imposer de charges sur l’utilisation de l’IA pour des activités légales, ni tenir les développeurs responsables de l’utilisation abusive de leurs modèles par des tiers. Cependant, des exceptions larges sont prévues, notamment en matière de sécurité des enfants, de fraude, de protection des consommateurs, de zonage, et des achats gouvernementaux en matière d’IA. La distinction entre « développement de l’IA » (préempté) et « protection générale des consommateurs » (préservée) sera au cœur des débats si cela devient loi.
- Droits d’auteur renvoyés aux tribunaux. L’administration affirme qu’elle considère que la formation d’IA sur du matériel protégé par le droit d’auteur est légale, mais plutôt que de codifier cette position, elle demande au Congrès de rester en dehors de la question et de laisser les juges trancher sur l’utilisation équitable. Elle soutient également la création de cadres de licence collective pour que les titulaires de droits puissent négocier avec les entreprises d’IA sans déclencher de responsabilité antitrust. Cela contredit directement le projet de Blackburn, qui déclarerait que la formation d’IA sur des œuvres protégées par le droit d’auteur est catégoriquement en dehors de l’utilisation équitable.
- Sécurité des enfants comme axe central. Exigences de vérification d’âge, fonctionnalités de plateforme pour réduire les risques d’exploitation et d’automutilation, et extension des protections existantes de la vie privée des enfants aux systèmes d’IA. C’est le domaine qui bénéficie d’un réel soutien bipartite, et le cadre préserve délibérément l’autorité des États dans ce domaine, y compris sur le matériel de maltraitance infantile généré par l’IA.
- Pas de nouvelle agence fédérale pour l’IA. Au lieu d’un régulateur centralisé, le cadre prévoit une supervision via des agences existantes ayant l’expertise pertinente (SEC pour l’IA financière, FDA pour la santé, FTC pour les questions de consommation). Le Congrès est également invité à créer des sables réglementaires, bien que le cadre ne précise pas quelle agence les gérerait ni comment elles interagiraient avec les règles existantes.
Les Autres Sections
Les trois sections restantes abordent :
- Énergie : les centres de données devraient payer leur propre électricité, et non les abonnés.
- Liberté d’expression : un recours contre la censure gouvernementale via des plateformes d’IA.
- Force de travail : étude sur le déplacement des emplois, ajout de l’IA aux programmes de formation existants.
Questions Ouvertes sur la Préemption Fédérale
En un mot : non, et la diversité des réglementations étatiques en matière d’IA en cours de considération compliquera l’analyse. Bien que le concept de préemption semble clair dans ce résumé de quatre pages, la frontière entre la réglementation du « développement de l’IA » préempté et les lois « d’applicabilité générale » préservées reste indéfinie et non testée.
La loi sur l’IA du Colorado, qui entre en vigueur le 30 juin, impose des obligations tant aux développeurs qu’aux déployeurs de systèmes à haut risque. Régule-t-elle le « développement de l’IA » ou applique-t-elle la protection des consommateurs ? Le cadre ne répond pas à cette question, et les nouvelles réglementations étatiques en matière d’IA incluent également des actions en justice privées qui pourraient être une réponse aux tactiques de préemption fédérale.
Pour l’instant, ce cadre ne change rien aux obligations de conformité existantes. Mais c’est un signal fort de l’intention de l’administration Trump, surtout avec d’autres livrables d’agences fédérales liés aux lois étatiques sur l’IA attendus ce mois-ci. La FTC et le secrétaire au Commerce ont été chargés de fournir des évaluations des réglementations étatiques sur l’IA jugées « lourdes », ce qui pourrait servir de feuille de route pour la Task Force sur les Litiges liés à l’IA du Département de la Justice. Que ce cadre politique se concrétise au Congrès ou dans les tribunaux, les deux chemins seront suivis attentivement.
