Le White House retient des détails sur le cadre national de l’IA
Un responsable de la stratégie en intelligence artificielle (IA) de la Maison Blanche a offert aux législateurs de la Chambre peu de détails mercredi sur ce que le Congrès peut attendre des recommandations législatives prévues par l’administration pour un standard national destiné à préempter les lois des États.
En décembre, le président Donald Trump a signé un décret exécutif ordonnant aux agences fédérales de poursuivre les États si leurs lois sur l’IA sont jugées « onéreuses » et de limiter l’accès des États à certains fonds fédéraux, y compris à travers un programme de déploiement de la large bande, en fonction de ces lois. Cet ordre est intervenu après que des législateurs pro-IA ont tenté de légiférer sur une préemption nationale des lois des États, mais ont échoué face à une opposition bipartite en défense de l’autorité des États.
Les recommandations législatives
Le décret exécutif a également chargé le conseiller scientifique et technologique de la Maison Blanche, Michael Kratsios, ainsi que le conseiller spécial pour l’IA et la cryptographie, David Sacks, de développer des recommandations législatives pour un standard national de l’IA qui préempterait les lois sur l’IA.
Lors de sa première apparition au Capitole depuis cet ordre, Kratsios a évité de fournir des détails lors de son témoignage devant le panel de recherche de la Commission des sciences, de l’espace et de la technologie, tout en répondant aux préoccupations des législateurs sur l’équilibre des responsabilités concernant l’IA entre les États, le Congrès et l’administration Trump.
Kratsios a déclaré que, dans le cadre de l’exécution du Plan d’action sur l’IA de l’administration publié l’an dernier, il voit « des opportunités de collaboration » avec le comité et le Congrès.
Un cadre fédéral approprié
Le président du sous-comité, Jay Obernolte, a exprimé un soutien général à l’idée que le Congrès adopte ce qu’il a qualifié de « cadre fédéral approprié » qui « maintient la position des États-Unis en tant que force leader dans le développement et le déploiement de l’IA mondiale ». Cependant, il a également souligné le rôle des États dans la régulation de l’IA.
Obernolte a insisté sur le fait qu’il devrait y avoir une « voie fédérale » et une « voie étatique », et que le gouvernement fédéral doit d’abord définir ce qui relève de l’article 1 de la Constitution, commerce inter-étatique, et où se situent ces garde-fous préemptifs.
Les préoccupations des législateurs
La membre de la commission, Zoe Lofgren, a remis en question les tentatives du décret exécutif de transférer le pouvoir sur l’IA des États et du Congrès vers l’exécutif, ajoutant qu’elle estime que l’ordre est inconstitutionnel. Elle a déclaré : « Ce que nous ne devons pas faire, c’est préempter les États de prendre les mesures nécessaires pour protéger leurs citoyens, alors qu’ici au Congrès, nous ne faisons rien pour adopter des lois nous-mêmes. »
Lofgren a exprimé son soutien pour les objectifs du Plan d’action sur l’IA de l’administration, en particulier « l’innovation, l’infrastructure, la diplomatie internationale et les objectifs de sécurité ». Cependant, elle a indiqué que le plan « aborde à peine les risques de l’IA, et même là où il le fait, notamment en ce qui concerne les deepfakes, l’administration a échoué à prendre des mesures significatives pour adresser ces risques. »
Les relations avec Elon Musk
Lofgren a exprimé des inquiétudes concernant la relation du gouvernement fédéral avec X (anciennement Twitter) d’Elon Musk, à la suite de la plateforme permettant au chatbot Grok AI de générer des images sexualisées de vraies personnes, y compris des enfants. Le Sénat a voté mardi une législation permettant aux victimes de poursuivre X et d’autres plateformes concernant la génération et la distribution d’images intimes non consensuelles.
Kratsios a déclaré que l’utilisation abusive de la technologie, y compris par des employés du gouvernement fédéral, « nécessite une responsabilité », plutôt que « des restrictions générales sur l’utilisation et le développement de cette technologie ».
Plans de l’administration pour l’Institut national des normes et de la technologie
Les législateurs des deux partis ont également interrogé Kratsios sur les plans de l’administration concernant l’Institut national des normes et de la technologie et son Centre pour les normes et l’innovation de l’IA, connu jusqu’à l’été dernier sous le nom d’Institut de sécurité de l’IA des États-Unis.
Obernolte a indiqué qu’il prévoit de présenter un projet de loi intitulé Great American AI Act qui codifierait le centre. Il a également salué le soutien de l’administration pour la poursuite de la Ressource nationale de recherche en intelligence artificielle (NAIRR), dont il a parrainé un projet de loi pour la codifier.
Kratsios a salué la décision de l’administration de remplacer l’ancien institut de sécurité par le CAISI et sa directive demandant à NIST de réviser son cadre de gestion des risques en IA pour « éliminer les références à la désinformation, à la diversité, à l’équité et à l’inclusion, et au changement climatique ».
Il a déclaré : « Nous voulons que le NIST se concentre sur la métrologie scientifique avancée. L’insertion de rhétorique politique dans leur travail dévalorise et corrompt les efforts plus larges que le NIST essaie de mener dans de nombreux domaines scientifiques importants. »
La membre de la commission, Haley Stevens, a déploré les tentatives de l’administration de réduire le budget du NIST et les impacts potentiels sur les programmes visant à encourager l’utilisation de l’IA dans la fabrication.
La demande de budget du président pour l’exercice 2026 proposait une réduction de 325 millions de dollars, mais le projet de loi Commerce-Justice-Science, comprenant une proposition de compromis, rejetterait cette proposition.
