Le Congrès doit préserver l’autorité des États dans la gouvernance de l’IA
L’intelligence artificielle transforme rapidement la manière dont les gouvernements servent leurs concitoyens — de l’optimisation des interventions d’urgence à la rationalisation des licences et de l’urbanisme. Mais à mesure que les systèmes d’IA deviennent plus puissants et omniprésents, la question de leur gouvernance responsable est immédiate.
Cette urgence s’est intensifiée le mois dernier. Un ordre exécutif divulgué de l’administration Trump bloquerait les États de faire appliquer leurs propres réglementations sur l’IA, et la direction de la Chambre envisage sérieusement d’insérer un langage similaire de préemption dans la Loi d’autorisation de la défense nationale. Pendant ce temps, la nouvelle loi sur l’IA de Californie a suscité une réaction fédérale, et le sénateur Ted Cruz a annoncé qu’il introduirait une législation la défiant directement.
La question de la gouvernance fédérale
Washington envisage de dépouiller les États de leur autorité pour gouverner les systèmes d’IA qu’ils déploient quotidiennement. Nous croyons que cela serait une grave erreur. L’impact de l’IA sur les décisions au niveau des États est trop large, trop varié et trop spécifique au contexte pour que Washington puisse retarder et délibérer.
L’impact de l’IA se produit maintenant, pas dans un futur lointain. Les responsables à tous les niveaux de gouvernement ont des responsabilités civiques uniques : maximiser les avantages sociaux tout en atténuant les potentiels dommages pour leurs concitoyens respectifs en fournissant le bon équilibre d’investissements, d’incitations, de garde-fous applicables et de jurisprudence.
Les défis spécifiques des États
Les États gèrent des services divers — intervention d’urgence, logement, éducation, santé, services publics et sécurité publique — où l’IA doit s’aligner sur les lois, les besoins et les conditions locales pour être efficace. Une approche uniforme ne fonctionne pas pour des tâches spécifiques comme la planification des pistes cyclables ou la détection des nids-de-poule.
Un cadre de gouvernance fédérale servirait mieux les besoins des entreprises innovantes qui développent et déploient rapidement des systèmes d’IA, tout en offrant aux entreprises la prévisibilité et la cohérence nécessaires pour continuer à avancer à grande vitesse. Cependant, le Congrès devrait reconnaître qu’un cadre national doit inclure plus qu’un moratoire sur les lois des États.
Conséquences de la suppression de l’autorité des États
Imposer un gel sur la réglementation de l’IA au niveau des États limiterait la capacité des agences d’État à atténuer les problèmes dans des domaines tels que la santé, l’urbanisme, la délivrance de licences, l’éducation, le transport et la police.
Une des conséquences serait l’inondation des pipelines d’approvisionnement par des systèmes non vérifiés. Dans un vide réglementaire, les fournisseurs peuvent commercialiser des “solutions” IA non validées à des fonctionnaires qui pourraient ne pas avoir la capacité technique de distinguer la qualité de l’engouement, érodant ainsi la confiance du public dans l’IA.
De plus, cela entraînerait des coûts plus élevés et une complexité accrue pour les agences d’État. Sans l’autorité de définir leurs propres garde-fous, les gouvernements locaux seraient contraints de s’appuyer sur des solutions contractuelles ad hoc, exactement le type de patchwork que le Congrès prétend vouloir éviter.
Favoriser l’innovation au niveau des États
Au lieu de marginaliser les États, le Congrès devrait leur donner les moyens d’agir. Comme l’a dit le juge Louis Brandeis en 1932, les États sont des laboratoires de la démocratie. Beaucoup testent déjà des mélanges d’incitations — transparence, responsabilité, contestabilité — avec des espaces d’innovation et des partenariats public-privé.
Les entreprises d’IA veulent naturellement éviter un enchevêtrement de réglementations conflictuelles, mais la menace plus grande aujourd’hui est l’absence de garanties claires et applicables. Sans normes claires, les entreprises peuvent exagérer les capacités de leurs produits, étiqueter des logiciels comme “IA” simplement pour contourner la surveillance, ou éviter de déployer l’IA dans des domaines critiques en raison de préoccupations de sécurité.
Conclusion
Le futur de la gouvernance de l’IA dépend de la collaboration. Le Congrès devrait rejeter les propositions qui bloquent les lois des États sur l’IA — que ce soit par le biais de la NDAA ou d’actions exécutives — et plutôt travailler avec les États pour développer un modèle de gouvernance partagé qui protège le public tout en encourageant l’innovation responsable.
Donner du pouvoir aux États n’est pas un obstacle au progrès. C’est la manière d’assurer que l’IA renforce les communautés américaines, plutôt que d’affaiblir les institutions qui les servent.
