Conflit entre Anthropic et le Pentagone sur la politique de l’IA
Anthropic a intenté une action en justice contre le Département de la Défense des États-Unis après avoir été qualifié de risque pour la chaîne d’approvisionnement, une désignation qui bloque efficacement les entrepreneurs militaires de l’utilisation de ses modèles d’IA. Ce différend s’est rapidement transformé en une confrontation plus large entre Silicon Valley et Washington sur la manière dont l’intelligence artificielle doit être déployée dans les systèmes de sécurité nationale.
Origine de la controverse
La controverse a débuté lors du renouvellement des contrats du Pentagone impliquant des outils d’IA utilisés pour l’analyse classée et le soutien à la décision. Le modèle phare d’Anthropic, Claude, avait auparavant été utilisé dans certains systèmes gouvernementaux.
Les négociations ont stagné lorsque Anthropic a insisté sur des garanties éthiques strictes, y compris des interdictions explicites sur la surveillance de masse nationale et l’utilisation d’armes létales entièrement autonomes sans supervision humaine.
Anthropic a soutenu que ces conditions reflétaient son approche axée sur la sécurité dans le développement de l’IA, alignée sur l’accent mis par le PDG Dario Amodei sur la gouvernance responsable de l’IA.
Désignation de risque pour la chaîne d’approvisionnement
Le 27 février 2026, le secrétaire à la Défense, Pete Hegseth, a formellement désigné Anthropic comme un risque pour la chaîne d’approvisionnement. Cette classification, généralement réservée aux entités liées à des adversaires étrangers, interdit aux entrepreneurs du Pentagone de travailler avec la technologie de l’entreprise.
Réactions dans l’industrie technologique
La décision a suscité de fortes réactions à travers l’industrie technologique. OpenAI a rapidement sécurisé un accord avec le Pentagone, d’une valeur d’environ 200 millions de dollars. Le PDG Sam Altman a déclaré que les systèmes d’OpenAI incluaient des garanties intégrées contre les abus.
Cependant, cet accord a déclenché des protestations internes parmi certains employés qui demandaient des limites éthiques plus strictes pour les applications militaires.
Implications du procès
Les analystes estiment que cette bataille juridique pourrait redéfinir la manière dont les gouvernements et les entreprises d’IA collaborent, mettant en lumière la tension entre les priorités de sécurité nationale et la responsabilité des entreprises dans la course rapide à l’IA.
