Législation visant à codifier le centre AI du NIST
Un haut responsable de la Chambre des représentants développe une législation pour codifier le Centre pour les Normes et l’Innovation AI du National Institute of Standards and Technology (NIST) dans la loi.
Cette initiative de codification du CAISI intervient alors que les législateurs et l’administration Trump débattent du rôle du gouvernement fédéral dans la supervision de la technologie AI.
Le projet de loi “Great American AI Act”
Le représentant Jay Obernolte (R-Californie), président du sous-comité de recherche et technologie du Comité des sciences, de l’espace et de la technologie de la Chambre, a annoncé qu’il a un projet de loi intitulé “Great American AI Act”.
Lors d’une audience, Obernolte a déclaré que le projet de loi formalisera le rôle du CAISI pour avancer l’évaluation et la définition des normes AI.
Il a souligné que le travail effectué par le CAISI est essentiel pour créer une trousse à outils réglementaire pour les régulateurs sectoriels, afin que chacun ne soit pas contraint de réinventer la roue.
Changements sous l’administration Trump
L’administration Biden avait initialement établi un Institut de sécurité AI au NIST. Cependant, l’été dernier, l’administration Trump a rebaptisé le centre pour se concentrer sur les normes et l’innovation.
En septembre dernier, le centre a publié une évaluation du modèle AI chinois “DeepSeek”, révélant qu’il était en retard par rapport aux modèles américains en matière de coût, de sécurité et de performance. Plus récemment, le CAISI a lancé une demande d’informations sur la sécurisation des systèmes d’agents AI.
Stabilité et continuité
Malgré le changement de marque de l’administration Trump, Obernolte a noté que les fonctions du centre NIST sont restées largement cohérentes. Il a fait valoir que codifier le centre fournirait de la stabilité.
Il a déclaré : “Je pense que tout le monde conviendrait qu’il est malsain pour nous d’avoir chaque administration successive créer une nouvelle agence qui, en essence, fait quelque chose avec une mission à long terme qui nécessite de la continuité.”
Réactions et discussions sur la loi
Obernolte a demandé à Michael Kratsios, le directeur du Bureau de la science et de la technologie de la Maison Blanche, ce qu’il pensait de la codification du centre dans la loi.
Kratsios a affirmé que le CAISI est une partie très importante de l’agenda AI plus large, ajoutant qu’il était essentiel que l’administration reformule le travail du centre autour de l’innovation et des normes, plutôt que de la sécurité.
Il a également noté que le NIST aurait un rôle clé à jouer dans l’établissement des normes pour l’évaluation avancée des modèles.
Collaboration sur le “READ AI Act”
Obernolte et la représentante Sarah McBride (D-Del.) ont également introduit le “READ AI Act”, qui demanderait au NIST de développer des directives sur la façon dont les modèles AI devraient être évalués, y compris une documentation standard.
Kratsios a déclaré que ce projet de loi mérite d’être examiné, mais a ajouté que de tels efforts devraient éviter de se concentrer uniquement sur l’évaluation des modèles AI de pointe.
Débat sur le cadre national des normes AI
La discussion autour du rôle du centre NIST s’inscrit dans un débat plus large sur le rôle du gouvernement fédéral dans l’établissement des normes AI. Dans un décret exécutif de décembre, le président Donald Trump a appelé à des recommandations législatives pour créer un cadre national qui préviendrait les lois étatiques sur l’AI.
Lors de l’audience, Kratsios a offert peu de détails sur ce qu’il et le conseiller spécial pour l’AI et la crypto, David Sacks, ont envisagé, mais il a exprimé son impatience à travailler avec le Congrès sur une solution viable.
