Conflit entre Anthropic et le Pentagone : qui définit les règles de l’IA ?

Anthropic vs le Pentagone : un concours décisif sur qui fixe les règles pour l’IA

Il existe une citation souvent attribuée au révolutionnaire russe Vladimir Lénine selon laquelle il y a des décennies où rien ne se passe ; et il y a des semaines où des décennies se passent. Cette semaine a semblé être une telle semaine.

Dans le contexte du conflit en Iran et des tensions accrues entre l’administration Trump et ses alliés européens traditionnels, vous pourriez passer à côté de la nouvelle de la semaine dernière selon laquelle le Pentagone a désigné le géant de l’IA Anthropic comme un risque de chaîne d’approvisionnement. Bien que cette décision soit accompagnée d’une période de grâce de six mois, elle empêche effectivement toutes les agences fédérales et toutes les entreprises faisant des affaires avec le département de la Défense des États-Unis, y compris des géants comme Nvidia, Amazon, et Google, d’utiliser la technologie d’Anthropic dans le cadre de leur travail avec le département de la Guerre.

Un Contexte de Conflit

La décision du Pentagone était la conséquence naturelle de semaines de postures publiques après avoir atteint une impasse avec Anthropic. La signification de cette décision et ce qu’elle signifie pour l’avenir de la régulation de l’IA ne devrait pas être sous-estimée.

En juillet 2025, le Pentagone a attribué des contrats plafonnés à 200 millions de dollars à quatre entreprises d’IA “de pointe”, avec Claude d’Anthropic étant le premier modèle autorisé à être utilisé sur des réseaux classifiés. Cette lune de miel a pris fin lorsque le département a exigé une norme « à toutes fins légales », remplaçant effectivement les gardes-fous de l’entreprise par des politiques gouvernementales.

Des Lignes Rouges à Respecter

Dario Amodei, le PDG d’Anthropic, a clairement indiqué que ses deux lignes rouges étaient l’utilisation de Claude pour la surveillance de masse des citoyens américains et le déploiement d’armes entièrement autonomes – des armes capables de se déployer sans aucune intervention humaine. Après l’absence de mouvement de part et d’autre, la décision de désigner Anthropic comme un risque de chaîne d’approvisionnement a été prise.

Il ne faut pas sous-estimer à quel point cette affaire est devenue personnelle. Annonçant la décision sur Truth Social, le président Trump a attaqué les “imbéciles de gauche” chez Anthropic, décrivant l’entreprise comme “radicale de gauche” et menaçant de lourdes conséquences civiles et criminelles. Pendant ce temps, le secrétaire à la Guerre Pete Hegseth a parlé de “maîtrise de l’arrogance et de la trahison” d’Anthropic tout en accusant l’entreprise de tenter de contrôler le processus décisionnel de l’armée américaine.

OpenAI en Bénéfice

Le principal bénéficiaire de toute cette affaire a été OpenAI, qui était moins réticent à accepter ses red lines et a signé avec empressement le contrat de 200 millions de dollars avec le département de la Guerre. Sam Altman, le patron d’OpenAI, était un ancien collègue d’Amodei, maintenant devenu concurrent, ce dernier ayant quitté pour fonder Anthropic après une série de désaccords, y compris sur la sécurité de l’IA.

À Qui Appartient l’Avenir de l’IA ?

Au cœur de cette saga se trouve la question fondamentale : qui fixe les conditions d’utilisation de l’IA ? D’un côté, les gouvernements ont la responsabilité démocratique de prendre des décisions dans l’intérêt national, y compris sur l’utilisation de nouvelles technologies émergentes. De l’autre, personne ne connaît cette technologie mieux que les grandes entreprises technologiques elles-mêmes, y compris ce qu’elle peut et ne peut pas faire.

Il est impossible de séparer la course actuelle vers la super intelligence artificielle des tensions géopolitiques plus larges entre les États-Unis et la Chine, dans ce qui est probablement la course aux armements qui façonnera la prochaine phase du 21e siècle. L’art de la politique et de la régulation est lent et délibéré par nature et ne pourrait pas être plus en contraste avec la rapidité du développement de l’IA.

Perspectives d’Avenir

Quelles sont les prochaines étapes ? Claude continue d’être utilisé par l’armée américaine dans ses actions au Moyen-Orient et, selon la durée du conflit, cela pourrait nécessiter un retour sur cette fenêtre de six mois avant que la désignation de risque de chaîne d’approvisionnement d’Anthropic ne prenne pleinement effet. D’un point de vue commercial et de relations publiques, Anthropic semble bien se rassembler et a vu cette semaine une forte augmentation de sa popularité, Claude dépassant ChatGPT sur l’Apple Store et sa base d’abonnés payants doublant depuis le début de 2026.

C’est une histoire de personnalités, de principes et de lignes rouges. À l’ère de l’IA, le gouvernement et les entreprises devront de plus en plus travailler ensemble pour naviguer dans ces enjeux, sinon nous risquons de voir bien d’autres cas comme celui-ci dans les années à venir.

Scroll to Top