Conflit entre Anthropic et le Pentagone au milieu de la guerre en Iran : les enjeux éthiques de la guerre par IA
(OSV News) — Alors que la fumée s’élevait encore de ses ruines et que les sauveteurs extrayaient 175 corps des décombres de l’école élémentaire Shajarah-Tayyebeh à Minab, en Iran, le 28 février, les questions ont commencé à se poser sur la manière dont cela avait pu se produire dans les premières heures de la guerre entre les États-Unis et Israël contre l’Iran.
Des rapports préliminaires suggèrent que l’école a été mal identifiée comme un site militaire en raison d’une intelligence humaine obsolète lorsque celle-ci a été frappée par un missile de croisière Tomahawk américain. Cet incident a également attiré l’attention sur l’interaction complexe entre l’utilisation de l’intelligence artificielle générative pour le traitement des données militaires et l’identification de milliers de cibles potentielles à approuver par des examinateurs humains.
Une guerre qualifiée de “première guerre par IA”
Certains commentateurs qualifient le conflit actuel entre les États-Unis, Israël et l’Iran de “première guerre par IA”. Cette situation soulève de nombreuses considérations éthiques, anciennes et nouvelles, mais toutes tournent autour d’une préoccupation commune : l’IA ne doit pas être laissée à ses propres dispositifs.
Le 27 février, la veille de l’Opération Epic Fury, le président Donald Trump a ordonné aux agences gouvernementales de ne plus travailler avec le géant technologique Anthropic, en raison d’une différence critique de points de vue sur les utilisations acceptables de sa technologie par le Département de la Défense. En réponse, Anthropic, dont les outils analysent les images et les données de renseignement, a porté plainte contre le Pentagone le 9 mars.
Considérations éthiques et responsabilité humaine
Le PDG d’Anthropic, Dario Amodei, a évoqué la surveillance de masse et les armes entièrement autonomes, déclarant : “Dans un ensemble restreint de cas, nous croyons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques.” Il a également souligné que certaines utilisations dépassaient les limites de ce que la technologie actuelle peut faire en toute sécurité.
Un groupe de 14 théologiens catholiques a déposé un mémoire d’ami de la cour en soutien à Anthropic. Ils ont noté que les objections d’Anthropic à l’utilisation de l’IA pour la surveillance de masse des Américains étaient “alignées” avec l’enseignement catholique sur la vie privée et la subsidiarité. Ils ont également fait référence à l’enseignement de l’Église sur la justice en temps de guerre, affirmant que “les armes autonomes létales obscurcissent problématiquement l’agence humaine, déplaçant dangereusement la responsabilité des décideurs humains vers des machines.”
Utilisation de l’IA par le commandement central américain
Le vice-amiral américain Brad Cooper, chef du Commandement central des États-Unis, a déclaré dans une vidéo du 11 mars que les États-Unis utilisaient divers outils d’IA avancés pour mener des frappes. Il a expliqué : “Ces systèmes nous aident à trier d’énormes quantités de données en quelques secondes, permettant à nos dirigeants de prendre des décisions plus intelligentes plus rapidement que l’ennemi ne peut réagir.”
Préoccupations des législateurs démocrates
Cependant, 120 législateurs démocrates ont exprimé leurs inquiétudes dans une lettre au secrétaire à la Défense, Pete Hegseth, concernant les rapports selon lesquels les frappes américaines et israéliennes en Iran ont touché “des écoles, des hôpitaux, des gymnases, des espaces publics et un site classé au patrimoine mondial de l’UNESCO.” Ils ont demandé quel rôle l’IA jouait dans la sélection des cibles, l’évaluation du renseignement et les déterminations légales, ainsi que le point auquel ces décisions étaient soumises à un examen humain.
Éthique de la guerre et garde-fous
L’éthique de la guerre a toujours été régie par des garde-fous et des règles d’engagement strictement supervisées par le Département de la Défense. Cependant, des observateurs ont exprimé des préoccupations quant à la posture de l’administration actuelle sur la conduite de la guerre. Hegseth a évoqué une éthique militaire de “létalité maximale, pas de légalité tiède.”
La suppression des garde-fous en matière d’IA soulève de nombreuses questions problématiques, car l’IA générative est déjà connue pour ses biais. Si ces garde-fous sont levés, il est impossible de savoir quels types de recommandations pourraient émerger.
Responsabilités d’Anthropic et des entreprises
La lutte d’Anthropic contre le Pentagone a amené certains dans le monde des affaires à remettre en question l’influence du gouvernement sur l’indépendance des entreprises. Selon certains experts, les entreprises comme Anthropic ont la responsabilité, en tant qu’acteurs corporatifs, de s’assurer que leurs produits ne soient utilisés que de manière appropriée et éthique. Ils ont le droit d’imposer des limitations d’utilisation dans leurs contrats.
Les limites de ce qui peut être fait éthiquement en temps de guerre doivent être respectées. L’Église a toujours soutenu qu’une décision humaine doit être impliquée dans l’application des critères de la guerre juste.
La déshumanisation de la guerre, plus que cela ne l’est déjà, rendra l’utilisation de la force mortelle beaucoup trop facile. Les dangers d’effets disproportionnés doivent être étroitement surveillés.
