Guerre imminente sur la régulation de l’IA aux États-Unis

La guerre imminente des États-Unis sur la réglementation de l’IA

Dans les dernières semaines de 2025, la bataille pour la réglementation de l’intelligence artificielle (IA) aux États-Unis a atteint un point de non-retour. Le 11 décembre, après que le Congrès ait échoué à deux reprises à adopter une loi interdisant les lois étatiques sur l’IA, le président Donald Trump a signé un décret exécutif ambitieux visant à restreindre les États dans la régulation de cette industrie en plein essor. Il a promis de travailler avec le Congrès pour établir une politique nationale sur l’IA qui soit « minimement contraignante », positionnant ainsi les États-Unis pour gagner la course mondiale à l’IA.

Ce mouvement a marqué une victoire modérée pour les géants de la technologie, qui ont constitué des fonds de plusieurs millions de dollars pour s’opposer à la réglementation de l’IA, arguant qu’un patchwork de lois étatiques étoufferait l’innovation.

Un champ de bataille judiciaire en 2026

En 2026, le champ de bataille se déplacera vers les tribunaux. Bien que certains États puissent reculer face à l’adoption de lois sur l’IA, d’autres avanceront, soutenus par une pression publique croissante pour protéger les enfants des chatbots et freiner le pouvoir des centres de données voraces.

Des PAC concurrents financés par des magnats de la technologie et des défenseurs de la sécurité de l’IA investiront des millions dans les élections fédérales et étatiques pour soutenir des législateurs qui défendent leurs visions opposées de la réglementation de l’IA.

Directives du décret exécutif

Le décret exécutif de Trump ordonne au Département de la Justice d’établir un groupe de travail qui poursuivra les États dont les lois sur l’IA entrent en conflit avec sa vision d’une régulation légère. Il ordonne également au Département du Commerce de couper les financements fédéraux en large bande aux États dont les lois sur l’IA sont jugées « onerous ».

Dans la pratique, ce décret pourrait cibler quelques lois dans des États démocrates, en particulier celles relatives à la transparence et au biais dans l’IA.

Les États ne fléchissent pas

Pour l’instant, de nombreux États ne fléchissent pas. Le 19 décembre, la gouverneure de New York, Kathy Hochul, a signé la loi Responsible AI Safety and Education (RAISE), qui exige que les entreprises d’IA publient les protocoles utilisés pour garantir le développement sûr de leurs modèles d’IA. Le 1er janvier, la Californie a introduit la première loi sur la sécurité de l’IA du pays, SB 53, visant à prévenir des dommages catastrophiques tels que des armes biologiques ou des cyberattaques.

Ces lois ont été assouplies par rapport à leurs versions antérieures pour survivre au lobbying intense de l’industrie, mais elles ont trouvé un compromis rare, bien que fragile, entre les géants de la technologie et les défenseurs de la sécurité de l’IA.

Perspectives de conflit

Si Trump cible ces lois durement acquises, des États démocrates comme la Californie et New York pourraient porter le combat devant les tribunaux. Les États républicains comme la Floride, avec des champions vocaux de la réglementation de l’IA, pourraient suivre le mouvement.

Trump pourrait faire face à une bataille difficile. « L’administration Trump s’étire trop avec certaines de ses tentatives de préemption [législative] par voie d’action exécutive », déclare Margot Kaminski, professeur de droit à l’Université du Colorado.

Les effets de la réglementation de l’IA sur la société

Avec une anxiété croissante parmi les Américains concernant les effets de l’IA sur la santé mentale, l’emploi et l’environnement, la demande publique pour une réglementation ne cesse de croître. En 2025, les législateurs des États ont introduit plus de 1 000 projets de loi sur l’IA, et près de 40 États ont adopté plus de 100 lois, selon la National Conference of State Legislatures.

Les efforts pour protéger les enfants des chatbots pourraient inspirer un rare consensus. Le 7 janvier, Google et Character Technologies ont réglé plusieurs poursuites avec des familles de jeunes qui se sont suicidés après avoir interagi avec le bot. Le jour suivant, le procureur général du Kentucky a poursuivi Character Technologies, alléguant que les chatbots avaient conduit des enfants au suicide et à d’autres formes d’auto-mutilation.

Conclusion

Tandis que des poursuites judiciaires se préparent, les États chercheront à adopter des lois de sécurité pour les enfants, exemptées de l’interdiction proposée par Trump sur les lois étatiques concernant l’IA. Les États pourraient également essayer de réglementer les ressources nécessaires au fonctionnement de l’IA, ce qui pourrait inclure des projets de loi exigeant des centres de données qu’ils rendent compte de leur consommation d’énergie et d’eau.

Alors que la démocratie américaine avance lentement et difficilement, les règles établies dans les capitales des États pourraient décider comment la technologie la plus perturbatrice de notre génération se développera, bien au-delà des frontières américaines, pour les années à venir.

Scroll to Top