Le Plan d’IA de Trump Fait Face au Scepticisme des Législateurs sur la Préemption des États
Le responsable de la science et de la technologie à la Maison Blanche a offert peu de détails sur ce que le Congrès peut attendre du cadre national sur l’intelligence artificielle (IA) de l’administration Trump, tout en étant sous le feu des critiques des législateurs concernant l’utilisation par l’administration d’un outil d’IA controversé.
Les Détails du Cadre National sur l’IA
Lors d’une audition du Comité de la Science de la Chambre des représentants, Michael Kratsios, directeur du Bureau de la politique scientifique et technologique (OSTP), a partagé peu d’informations sur ce que ce cadre national de l’IA inclura, mais a fait allusion à une régulation spécifique à chaque secteur.
« Nous voulons créer un environnement réglementaire qui offre un certain niveau de clarté … pour tous nos innovateurs, et la partie la plus importante est de promouvoir et de travailler vers une approche de régulation de l’IA spécifique à l’utilisation sectorielle », a déclaré Kratsios aux législateurs. « Créer une régulation unique pour tous autour de l’IA n’est pas la meilleure façon de traiter toutes ces nouvelles technologies d’IA. »
Ordre Exécutif et Préemption des Lois des États
Ce cadre national de l’IA sera le résultat de l’ordre exécutif du président Donald Trump du mois dernier qui a ordonné au procureur général des États-Unis de contester les lois des États sur l’IA qui ne s’alignent pas sur les priorités de son administration. L’ordre visait à traiter un patchwork de régulations étatiques qui pourraient freiner l’innovation, a déclaré la Maison Blanche.
Cependant, la préemption généralisée de la plupart des lois sur l’IA a soulevé des interrogations, même chez les républicains.
Réactions des Législateurs
Le représentant Jay Obernolte, R-Californie, a suggéré que les États devraient toujours être en mesure de réguler.
« Je pense que tout le monde croit qu’il devrait y avoir une voie fédérale et une voie étatique, et que le gouvernement fédéral doit d’abord définir ce qui relève de l’Article Un de la Constitution – le commerce inter-étatique – et où se trouvent ces garde-fous préemptifs », a déclaré Obernolte. Il a ajouté que ces garde-fous devraient spécifier « où la régulation est réservée uniquement à la régulation au niveau fédéral », tout en laissant la place aux États pour mettre en œuvre leurs propres lois sur l’IA et « être les laboratoires de la démocratie qu’ils sont ».
Critiques des Partenariats avec xAI
Parallèlement, les démocrates du panel ont critiqué l’expansion du partenariat de l’administration Trump avec l’ancien conseiller spécial de la Maison Blanche, Elon Musk, et sa société xAI. La représentante Zoe Lofgren, D-Californie, a évoqué une mise à jour récente de Grok qui permettait aux utilisateurs de modifier des photos pour faire apparaître des femmes et des filles nues.
« Près de six mois se sont écoulés depuis que l’administration a dévoilé son plan d’action sur l’IA avec … des objectifs que j’apprécie et soutiens certainement. Malheureusement, le plan aborde seulement de manière minimale les risques de l’IA et même là où il le fait, y compris en ce qui concerne les deepfakes, l’administration n’a pas pris de mesures significatives », a déclaré Lofgren dans ses déclarations d’ouverture.
En septembre, l’administration des services généraux a conclu un accord avec xAI pour fournir Grok aux agences fédérales à un tarif réduit.
Préoccupations sur l’Utilisation Inappropriée de l’IA
« Le président Trump envoie des dollars des contribuables américains à xAI à travers un accord conclu en septembre. En gros, nous payons Elon Musk pour donner accès à une machine de pornographie juvénile », a déclaré Lofgren à Kratsios.
Bien que Kratsios ait suggéré que toute utilisation inappropriée de Grok par des employés fédéraux devrait entraîner un licenciement et a ajouté que des garde-fous pour protéger les enfants doivent être mis en place, Lofgren a averti que l’inaction aura des conséquences. « Si nous ne résolvons pas les abus, nous allons avoir un sérieux obstacle au développement de l’IA », a-t-elle déclaré.
L’ordre de Trump visant à préempter les lois des États a permis à ces derniers de maintenir certaines régulations qui protégeront les enfants de l’IA ; il n’a cependant pas inclus d’exemptions similaires pour les usages liés aux deepfakes.
