Sécurité à l’ère de la guerre par intelligence artificielle : capacités et gouvernance
“L’humanité ne doit pas confier son destin à la boîte noire des algorithmes.”
Malgré cet avertissement du Secrétaire général des Nations Unies, António Guterres, l’ordre international évolue vers une réalité où l’intelligence artificielle (IA) devient un facteur décisif dans les conflits militaires. Des conflits tels que la guerre Russie-Ukraine, la guerre Israël-Hamas et la récente confrontation entre les États-Unis et l’Iran illustrent comment l’IA est intégrée dans les étapes clés de la chaîne de destruction.
Rôle de l’IA sur le champ de bataille
Comparé à la guerre de précision de la guerre du Golfe ou aux opérations centrées sur le réseau de la guerre d’Irak, l’IA joue maintenant un rôle de coordination sur le champ de bataille, redéfinissant à la fois la vitesse et la structure de la guerre.
Dans le conflit avec l’Iran, l’IA fusionne des données provenant de satellites, de renseignements d’origine signal, de drones et de radars en temps réel, compressant la chaîne de destruction à quelques minutes. Cela permet la mise en œuvre simultanée d’opérations multidomaines sous des cadres tels que le Commandement et le Contrôle Interarmées Combinés.
Transformation de la chaîne de destruction
La capacité à frapper des milliers de cibles en peu de temps reflète cette transformation structurelle. Elle s’aligne également sur l’évolution du projet Maven, initié lors de la première présidence de Donald Trump, étendu sous Joe Biden et accéléré dans son application sur le champ de bataille.
En combinant “intégration des données” et “intégration de la signification”, l’IA redéfinit la manière dont les guerres sont menées.
Défis et gouvernance
Après les attentats du 11 septembre, une commission bipartite a critiqué les agences de renseignement pour leur incapacité à “relier les points”. Aujourd’hui, l’IA comble de plus en plus cette lacune. Les informations recueillies par divers canaux sont intégrées dans une image opérationnelle commune, tandis que la chaîne de destruction évolue vers un “réseau de destruction” qui incorpore des opérations cybernétiques pour désactiver les adversaires.
Lors du sommet Responsible AI in the Military domain (REAIM) en Corée en septembre 2024, les États-Unis ont défini six domaines d’application militaire de l’IA : renseignement, surveillance et reconnaissance, commandement et contrôle, logistique, équipe homme-machine, simulation et opérations dans l’espace, cyber et électromagnétique. Ces domaines soulignent le rôle central de l’IA dans la guerre moderne.
Compétition et rivalité militaire
Le Département de la Défense des États-Unis parle maintenant de “guerre algorithmique” et d’“opérations sur le champ de bataille rendues possibles par l’IA”, tandis que la Chine promeut sa doctrine de ce qu’elle appelle “guerre intelligisée”. Les discussions à Washington portent de plus en plus sur l’ère de la guerre par IA.
Des exemples récents, comme les essaims de drones et les munitions errantes en Ukraine, ainsi que des systèmes tels que Lavender et Gospel utilisés à Gaza, montrent comment l’IA peut considérablement accélérer le ciblage et le tempo opérationnel. Même à un stade précoce, l’IA militaire façonne déjà le rythme de la guerre au-delà des systèmes d’armement conventionnels, tandis que le champ de la prise de décision humaine continue de se réduire.
Risques et contrôles humains
La tentation de se diriger vers des armes entièrement autonomes est susceptible d’augmenter. Ces changements placent la compétition en matière d’IA au cœur de la rivalité militaire, et la victoire dans des domaines invisibles détermine de plus en plus les résultats sur le champ de bataille.
Des analystes affirment que les capacités d’IA portent maintenant une signification stratégique comparable à celle des armes nucléaires tactiques. L’ancien secrétaire d’État américain, Henry Kissinger, avait prédit que l’IA façonnerait l’ordre mondial du XXIe siècle, une prévision qui est en passe de devenir réalité.
Gouvernance mondiale et défis futurs
Cependant, le rythme de développement de l’IA militaire dépasse de loin les efforts de gouvernance mondiaux. Les discussions intergouvernementales sur les systèmes d’armement autonomes létaux, les résolutions des Nations Unies et les initiatives REAIM continuent, mais l’écart entre les normes et la réalité s’est élargi durant le second mandat de Trump.
Une question centrale est de savoir comment maintenir le contrôle humain et définir le champ d’autonomie acceptable. Les récentes tensions impliquant le Département de la Défense des États-Unis et la société d’IA Anthropic, désignée comme une entité à risque pour la chaîne d’approvisionnement, reflètent des perspectives divergentes sur ces questions.
Alors que la prise de décision pilotée par l’IA s’accélère à la vitesse des machines, des stratégies telles que “à gauche du lancement”, visant à neutraliser les menaces avant leur lancement, deviennent de plus en plus réalisables. En même temps, le risque de calcul erroné et de victimes civiles augmente.
Conclusion et recommandations
Un rapport dirigé par le professeur Kenneth Payne pour la Commission mondiale REAIM a révélé que les modèles d’IA choisissaient l’utilisation nucléaire dans 20 des 21 conflits simulés. Cela met en lumière les risques inhérents à la délégation de décisions critiques aux machines. Le rapport final de la commission a souligné l’importance de maintenir le contrôle humain sur les décisions concernant les armes nucléaires.
Lors d’un sommet fin 2024, l’ancien président Biden et le président chinois Xi Jinping ont convenu que les humains doivent conserver le contrôle ultime sur les décisions relatives aux armes nucléaires. Ce principe devrait être réaffirmé lors des futures réunions bilatérales.
Sur la péninsule coréenne, les implications de la guerre par IA sont particulièrement significatives. Des temps de réponse plus courts nécessitent une refonte fondamentale des systèmes de gestion de crise. Alors que la Corée poursuit le transfert du contrôle opérationnel en temps de guerre, elle doit sécuriser non seulement des armes de nouvelle génération mais également des capacités en C4ISR, c’est-à-dire Commandement, Contrôle, Communications, Ordinateurs, Renseignement, Surveillance et Reconnaissance basé sur l’IA, ainsi que dans les opérations cybernétiques et les systèmes intégrés habités et non habités.
Le président Lee Jae Myung a souligné cet équilibre lors d’une réunion du Conseil de sécurité de l’ONU en septembre dernier, notant que l’IA pourrait devenir soit une force dangereuse, soit un outil bénéfique. Il a appelé la communauté internationale à établir des principes pour une utilisation responsable.
La Corée, qui aspire à devenir un leader mondial en matière d’IA, doit renforcer ses capacités militaires tout en intégrant la responsabilité et la sécurité dès la phase de conception. L’initiative récente du Service national du renseignement avec sept pays sur la “sécurité par la conception” pour les chaînes d’approvisionnement en IA reflète cette direction. Elle s’inscrit dans la stratégie diplomatique et de sécurité plus large de la Corée, qui cherche à façonner un ordre international numérique à travers des plateformes telles que l’ONU et REAIM.
En fin de compte, la Corée doit poursuivre une stratégie globale qui intègre l’expertise des gouvernements, des militaires et du secteur privé. Renforcer la sécurité nationale et la prospérité nécessite non seulement des avancées technologiques, mais également un engagement à garantir que l’IA serve l’humanité.
