La prochaine bataille de l’IA : les droits du Premier Amendement pour les chatbots
Le conflit entre Anthropic et le Pentagone semble, au premier abord, être une question de sécurité de l’IA — une entreprise technologique éthique traçant des lignes de conduite. Cependant, il s’agit également d’une affaire relevant du Premier Amendement.
C’est un test pour savoir si le pouvoir exécutif peut éliminer ses fournisseurs pour “non-conformité”. C’est une histoire de risque pour les investisseurs ayant placé des milliards dans des entreprises d’IA, supposant que le gouvernement américain serait un client, et non un “tueur” d’entreprise. Ce conflit est une répétition générale pour toutes les questions douloureuses que l’humanité n’a pas encore résolues concernant la technologie de l’information la plus puissante jamais construite.
Le statut légal de l’IA
Qui en est responsable ? Quand, et non si, quelque chose tourne mal, qui est responsable ?
En d’autres termes, cette bataille va bien au-delà de ce qu’elle semble être.
Le déclenchement du conflit
Le conflit a commencé lorsque Anthropic a refusé de retirer deux garde-fous de sécurité d’une version spécialisée de son système d’IA Claude, destinée au Pentagone, dans le cadre d’un contrat de 200 millions de dollars. Les protections en question incluent des mesures contre la surveillance de masse sans mandat des Américains et contre le déploiement dans des systèmes d’armes entièrement autonomes. Le mois dernier, le PDG, Dario Amodei, a détaillé la réponse du Pentagone : une menace de désigner Anthropic comme un “risque de chaîne d’approvisionnement”.
Cette désignation a été suivie d’un blacklistage effectif d’Anthropic des contrats gouvernementaux. Anthropic a alors intenté une action en justice, avertissant que cette désignation pourrait lui coûter des milliards.
Un moment particulièrement étrange de l’histoire américaine
Une des plaintes d’Anthropic allègue une violation du Premier Amendement, arguant que forcer une entreprise à construire des outils qu’elle considère comme éthiquement inacceptables constitue un discours contraint.
La question centrale est de savoir quel type de machine est réellement un modèle d’IA. Anthropic soutient que son offre au gouvernement est une “machine à discours” produisant des informations, et non des explosions.
Les implications d’une victoire du gouvernement
Si le gouvernement gagne, les implications s’étendent bien au-delà de cette affaire. Si l’on donne au gouvernement la licence de “tuer” des entreprises, cela place toutes les entreprises sous la menace d’exécution, et elles se sentiront toujours dans l’obligation de se conformer aux demandes gouvernementales.
Un arrière-plan juridique complexe
Le cas Anthropic se déroule dans un contexte légal plus large et peu compris. Des experts avertissent d’un “consensus croissant” selon lequel les sorties génératives de l’IA sont des discours protégés par le Premier Amendement. Certains émettent des avertissements selon lesquels l’IA pourrait bientôt accumuler des droits constitutionnels, tels que la propriété et les actifs financiers.
Stephenie Brown, avocate et enseignante en droit des affaires et en IA, explique que la protection par le Premier Amendement est “le standard d’or” pour éviter la réglementation.
Le paysage de la réglementation de l’IA
Tout cela se déroule dans un paysage réglementaire qui est moins en phase de développement qu’à l’arrêt. L’administration Trump a clairement indiqué sa position, arguant que le développement de l’IA doit avancer rapidement, sous la direction du gouvernement fédéral.
La situation paradoxale est que, tout en bloquant la réglementation formelle de l’IA, l’administration démontre à travers l’affaire Anthropic pourquoi une telle réglementation est nécessaire.
Conclusion
Le résultat de l’audience déterminera si l’utilisation novatrice par le Pentagone de la désignation de chaîne d’approvisionnement résiste à son premier test légal. Cependant, il est important de ne pas tirer trop de conclusions d’une seule affaire, car le conflit Anthropic-Pentagone, aussi conséquent soit-il, ne résoudra pas toutes les questions du Premier Amendement soulevées par l’IA.
