Anthropic et l’éthique de l’IA : un conflit avec le Pentagone

Analyse : La rupture d’Anthropic avec le Pentagone déclenche un débat sur l’éthique de l’IA

Après avoir rejeté les exigences du Pentagone concernant les armes autonomes et la surveillance, la position d’Anthropic a intensifié le débat autour de l’éthique de l’IA — faisant écho aux récentes mises en garde du Vatican.

Dans le contexte de l’explosion de l’intelligence artificielle (IA) ces dernières années, les catholiques ont constamment appelé à l’inclusion de garanties socialement responsables, de limites et de principes éthiques au sein de cette technologie. Maintenant, un développeur d’IA de premier plan qui tente de le faire se retrouve dans un conflit majeur avec le gouvernement américain, alimentant un débat passionné sur les dimensions éthiques et morales du développement de l’IA.

Le Conflit avec le Gouvernement

Anthropic, une startup de San Francisco, est le créateur de Claude, une IA basée sur un modèle de langage qui a déjà connu une large adoption dans de nombreux secteurs de la société américaine, y compris des milliers d’entreprises et d’écoles. Fondée en partie par des anciens d’OpenAI, Anthropic se positionne comme l’option sûre et responsable dans l’écosystème de l’IA. Son PDG, Dario Amodei, plaide souvent pour le développement de “garde-fous” afin de protéger l’humanité des dangers d’une IA non régulée.

Le gouvernement américain, quant à lui, explore depuis l’année dernière l’utilisation de l’IA dans la défense nationale. Quatre grandes entreprises américaines d’IA — Google, xAI, OpenAI et Anthropic — ont collaboré avec le Pentagone à divers degrés, avec des contrats très lucratifs en jeu.

Les Négociations et Leur Échec

Anthropic était en pourparlers avec le Pentagone dans le cadre d’une négociation de contrat de 200 millions de dollars qui aurait permis d’étendre les produits d’Anthropic à l’ensemble de l’appareil de défense américain. Cependant, les discussions ont échoué de manière spectaculaire fin février.

Le secrétaire à la Défense, Pete Hegseth, a poussé dans des déclarations publiques et lors des négociations directes pour qu’Anthropic permette au gouvernement d’utiliser sa technologie IA pour “tout usage légal”, y compris des systèmes d’armes entièrement autonomes et la surveillance de masse des citoyens américains. Quand Anthropic a refusé de manière “consciente” d’autoriser ces usages, le gouvernement a pris la décision sans précédent de désigner Anthropic comme un “risque de chaîne d’approvisionnement”, une première pour une entreprise américaine.

Réactions et Conséquences

En conséquence, toutes les agences gouvernementales ont été dirigées à cesser d’utiliser les produits d’Anthropic dans un délai de six mois. En ce qui concerne le contrat massif du Pentagone, le rival d’Anthropic, OpenAI, a déjà conclu son propre accord avec le gouvernement, sans les mêmes types de garanties qu’Anthropic recherchait.

Un flot de soutien pour la position principielle d’Anthropic a émergé en ligne, nombreux étant ceux sur les réseaux sociaux à déclarer leur intention de supprimer ChatGPT en faveur de Claude, qui a grimpé au sommet de l’App Store d’Apple.

Le Point de Vue Éthique

Bien que la position d’Anthropic soit considérée comme noble, elle pourrait s’avérer vaine. En l’absence d’une ordonnance judiciaire, la nouvelle vendetta du gouvernement contre Anthropic pourrait bien mener à l’anéantissement financier de l’entreprise. La désignation de “liste noire” par le gouvernement préclut tout entrepreneur travaillant avec le Pentagone de faire également des affaires avec Anthropic.

Cependant, des experts en éthique de l’IA ont exprimé leur appréciation pour le chemin qu’Anthropic a choisi, qui s’aligne en certains respects avec les appels moraux du Vatican sous les papes François et Jean-Paul II.

Les Dilemmes Éthiques

Concernant les deux dilemmes éthiques en jeu dans le cas d’Anthropic — à savoir les systèmes d’armes autonomes et la surveillance de masse alimentée par l’IA — les catholiques peuvent être assurés d’une orientation claire. Le Vatican a exprimé son opposition à l’idée d’habiliter des systèmes d’armes informatisés à fonctionner de manière autonome et à sélectionner des cibles pour la destruction.

Le document Antiqua et Nova de la Dicasterie pour la Doctrine de la Foi déclare que les systèmes d’armes autonomes posent une “grave préoccupation éthique” en raison de leur absence de “capacité humaine unique de jugement moral et de prise de décision éthique”.

Sur la question de la surveillance de masse, le Vatican déclare que l’IA utilisée à des fins de surveillance exploitant les libertés des individus est “injustifiable”.

Conclusion

La position d’Anthropic, bien qu’héroïque, pourrait avoir des conséquences fatales. Cependant, son engagement envers l’éthique, en dépit des pressions financières, pourrait inspirer un changement positif dans le développement futur de l’IA.

Scroll to Top