Conflit entre le Pentagone et Anthropic : une réflexion sur les échecs de gouvernance
Le 4 mars, le Pentagone a officiellement informé Anthropic qu’il était considéré comme un risque pour la chaîne d’approvisionnement en matière de sécurité nationale, une décision sans précédent contre une entreprise américaine.
Cette désignation a suivi le refus d’Anthropic d’accepter une clause contractuelle permettant l’utilisation de sa technologie à des “fins légales”, le PDG Dario Amodei insistant sur deux lignes rouges interdisant la surveillance de masse et les systèmes d’armement entièrement autonomes. Après des négociations intensives, le secrétaire à la Défense des États-Unis, Pete Hegseth, a annoncé que le ministère de la Défense (DoD) se détournerait des produits d’Anthropic dans un délai de six mois, bien que des rapports indiquent que le Pentagone s’appuie fortement sur le modèle Claude d’Anthropic dans sa guerre en cours avec l’Iran.
Éthique vs Sécurité nationale
Le conflit a été largement considéré comme un affrontement entre éthique et sûreté nationale. En réalité, il met en lumière des défis structurels profonds. Le conflit entre le Pentagone et Anthropic révèle des lacunes de gouvernance de longue date dans l’intégration de l’IA dans les opérations militaires et de renseignement — des lacunes qui préexistent à cette administration et qui perdureront au-delà de la présente controverse.
En l’absence de cadres institutionnels clairs, des entreprises privées comme Anthropic ont tenté d’imposer des limites par le biais de politiques d’utilisation qui définissent comment leurs modèles peuvent être déployés. Ce conflit souligne les lacunes de cette approche. Les mécanismes contractuels ne sont pas un substitut à des cadres de gouvernance capables de suivre le rythme des réalités opérationnelles de la guerre alimentée par l’IA.
Application des lois
Le mécanisme invoqué par le secrétaire Hegseth, le 10 USC §3252, est un statut de sécurité de la chaîne d’approvisionnement conçu pour traiter les menaces étrangères à l’intégrité des systèmes de défense. Son application à une entreprise américaine représente donc un écart marqué par rapport aux pratiques passées, et la base probante pour traiter un désaccord contractuel sur les termes d’utilisation comme un remplacement ou un sabotage étranger n’a pas encore été établie publiquement.
Initialement, l’administration Trump avait accepté les restrictions d’utilisation d’Anthropic lors de l’attribution du contrat de 200 millions de dollars en juillet 2025. Cependant, le mémorandum de janvier 2026 sur la stratégie d’intelligence artificielle du Pentagone a changé la façon dont le DoD travaille avec les entrepreneurs en dirigeant le ministère à incorporer une clause standard d”utilisation légale” dans tous les contrats dans un délai de 180 jours.
Options politiques
Malgré cela, d’autres options politiques étaient disponibles à l’administration dans son conflit avec Anthropic, y compris la résiliation de contrat ou la relance concurrentielle. Au lieu de cela, le Pentagone a invoqué une désignation de sécurité nationale de la chaîne d’approvisionnement tout en finalisant un accord avec le concurrent d’Anthropic, OpenAI.
Cette désignation suggère une tentative de réécrire les termes sous lesquels les entreprises d’IA de pointe peuvent faire affaire avec le gouvernement américain, ce qui pourrait avoir un effet dissuasif sur l’ensemble de l’industrie et risquer de nuire aux partenariats public-privé dans le secteur de la défense.
Défis légaux et opérationnels
Les gouvernements alliés sont maintenant confrontés aux implications du conflit entre le Pentagone et Anthropic. La désignation d’Anthropic comme risque pour la chaîne d’approvisionnement pourrait créer des défis juridiques, opérationnels et financiers pour l’OTAN et les partenaires des Five Eyes qui ont intégré les modèles d’Anthropic dans des plateformes partagées et des programmes conjoints.
Au-delà de ces questions immédiates, cet épisode touche à des débats plus larges concernant l’interopérabilité de la défense alliée et les conditions sous lesquelles les partenariats technologiques américains peuvent être fiables — une question qui pourrait maintenant prendre une nouvelle urgence dans les capitales alliées.
Conclusion
Les États-Unis déploient l’IA de pointe dans des environnements militaires et de renseignement conséquents sans les cadres juridiques ou les processus de supervision structurés que l’ampleur et les enjeux de ce déploiement exigent. Le conflit entre le Pentagone et Anthropic a rendu impossible d’ignorer le vide de gouvernance entourant l’IA militaire. Les décideurs américains et des pays alliés doivent maintenant déterminer comment cela sera adressé.
