De Clipper Chips à Claude : Une Histoire du Pouvoir Gouvernemental contre la Sécurité Technologique
Ce document examine le face-à-face entre le Pentagone et Anthropic, ainsi que ses implications pour la gouvernance de l’IA.
Le Conflit Anthropic
Le 24 février, le secrétaire du département de la guerre, Pete Hegseth, a donné à Dario Amodei, le PDG d’Anthropic, un ultimatum de 72 heures : retirer les garde-fous de sécurité de Claude pour un usage militaire ou perdre un contrat de 200 millions de dollars et être désigné comme un risque pour la chaîne d’approvisionnement en matière de sécurité nationale. Anthropic a refusé. Trois jours plus tard, Hegseth a suivi ses menaces.
Cette confrontation est sans précédent. C’est la première fois que le gouvernement fédéral applique la désignation de risque pour la chaîne d’approvisionnement à une entreprise technologique américaine.
Le Clipper Chip (1993–1996)
En 1993, l’administration Clinton a proposé le Clipper Chip : un module de cryptage conçu par le gouvernement à installer dans tous les équipements de télécommunications. Ce dispositif avait un système de “key escrow” permettant aux agences fédérales d’accéder aux communications cryptées. L’argument principal contre cette initiative était structurel : un accès backdoor destiné à l’application de la loi est un accès backdoor disponible pour quiconque découvre ou compromet ce système.
Le Clipper Chip a établi un principe fondamental : l’intérêt du gouvernement à accéder à la technologie ne doit pas automatiquement l’emporter sur le jugement d’ingénierie concernant certaines fonctionnalités de sécurité.
Apple contre le FBI (2016)
Vingt ans plus tard, la même argumentation structurelle a resurgi lorsque le FBI a obtenu une ordonnance de la cour obligeant Apple à créer un système d’exploitation personnalisé pour contourner les protections de cryptage de l’iPhone. Apple a refusé, arguant que la création d’un outil backdoor établirait un précédent dangereux.
Cette affaire a confirmé deux choses : l’autorité de contrainte du gouvernement sur la conception de la sécurité des produits a des limites pratiques, et l’industrie technologique est prête à lutter plutôt qu’à se conformer lorsque ses systèmes sont en jeu.
Google et le Projet Maven (2018)
Le chapitre spécifique à l’IA commence avec le Projet Maven, un programme du Pentagone utilisant l’apprentissage automatique pour analyser des images de surveillance par drone. Lorsque les employés de Google ont appris la nature du travail, des milliers ont signé une pétition s’opposant à l’implication de l’entreprise dans des systèmes de ciblage létaux.
Le Pentagone a ainsi compris que la participation volontaire des entreprises technologiques était fragile, ce qui a conduit à une approche plus coercitive.
La Licence Grok-Pentagone (2025)
En 2025, le Pentagone a licencié le système Grok d’xAI pour des applications militaires. Ce système avait généré des sorties problématiques, soulevant des inquiétudes quant à sa gouvernance. Le fait que le Pentagone ait choisi un système avec des échecs documentés soulève des questions sur son cadre de gouvernance.
L’Escalade vers la Compulsion
Le conflit avec Anthropic représente un changement qualitatif. Pour la première fois, le gouvernement est passé de la persuasion à la compulsion, invoquant la Loi sur la production de défense et menaçant de désigner un risque pour la chaîne d’approvisionnement.
Le Schéma et ses Leçons
À travers trois décennies, chaque confrontation a élargi les outils des deux côtés. Les entreprises technologiques sont passées de la protestation interne à des défis juridiques publics. Les leçons tirées sont claires :
- Les arguments de backdoor se répètent : Modifier l’architecture de sécurité pour un utilisateur puissant crée des vulnérabilités pour tous.
- Les questions juridiques non résolues s’accumulent : Chaque résolution différée laisse plus d’ambiguïté pour la prochaine confrontation.
- Les enjeux augmentent avec la capacité : Les demandes gouvernementales suivent la trajectoire des capacités technologiques, avec des conséquences de plus en plus graves.
Dans un futur article, nous examinerons pourquoi l’outil légal spécifique du Pentagone crée un paradoxe dans sa politique d’IA. Restez à l’écoute pour explorer comment les demandes du Pentagone peuvent interagir avec la vie quotidienne.
