Histoire rechargée : L’éthique à l’épreuve de l’IA
À chaque époque, l’émergence de nouvelles technologies militaires a contraint les États à revisiter une série récurrente de questions morales et stratégiques. Les commandants et les législateurs se sont toujours demandés si un outil est licite et si son utilisation est sage.
Technologies militaires et défis éthiques
L’introduction du étrier, par exemple, a modifié la guerre montée au début du Moyen Âge, permettant aux cavaliers de se stabiliser lors des impacts et transformant la cavalerie en une force décisive. L’expansion de la poudre à canon a changé la conduite des sièges, la formation des États et la hiérarchie du pouvoir militaire en Europe et en Asie.
Chaque moment historique a vu le débat éthique entrer en jeu après des démonstrations du potentiel sur le champ de bataille, souvent lorsque les conséquences stratégiques devenaient claires.
Le dilemme moderne de l’IA
Les démocraties contemporaines font face à un dilemme moderne concernant l’IA. Le développement des systèmes militaires d’IA s’est accéléré au cours des deux dernières décennies. Par exemple, depuis l’entrée en service du Wing Loong-1 en 2009, la Chine a supervisé une expansion continue de plateformes aériennes et maritimes autonomes et semi-autonomes.
Les États qui renoncent aux capacités d’IA pourraient faire face à des adversaires qui ne le font pas. Cette situation soulève des questions éthiques au sein d’un cadre stratégique plus large, où l’abstention comporte ses propres coûts et risques.
Tradition de la guerre juste
Un moyen structuré d’examiner la dimension éthique de cette transition existe sous la forme de la tradition de la guerre juste. Des principes tels que Jus ad Bellum, Jus in Bello et Jus post Bellum continuent de guider l’analyse contemporaine.
Le Jus ad Bellum permet d’améliorer l’intelligence et la discrimination des cibles au stade de la prise de décision. Le Jus in Bello observe que les systèmes de soutien à la décision basés sur l’apprentissage automatique peuvent aider à respecter le droit international humanitaire. Le Jus post Bellum facilite la documentation, la collecte de preuves et la cartographie des dommages.
Le rôle de l’humain
Une préoccupation persistante concerne le rôle de l’humain. Les doctrines militaires distinguent trois modèles : humain dans la boucle, humain sur la boucle, et humain hors de la boucle. Le modèle humain dans la boucle nécessite l’approbation humaine pour les actions létales. Ce modèle s’applique aux scénarios nécessitant le plus haut degré de prudence éthique.
Conclusion
La leçon historique récurrente enseigne que les sociétés démocratiques ne peuvent pas compter sur la retenue morale lorsque d’autres acteurs cherchent à tirer parti de l’innovation technologique. La réponse la plus éthiquement responsable pour les États démocratiques est d’assurer que le développement de l’IA respecte le droit international et les normes humanitaires.
Sans cela, un monde où les sociétés qui valorisent les droits humains et la retenue légale sont laissées pour compte serait inévitablement façonné par la coercition plutôt que par la loi.
