Les Régulations de l’UE Ne Sont Pas Prêtes pour les Incidents d’IA Multi-Agents
En août de cette année, les directives de la Commission européenne concernant l’article 73 de la loi sur l’IA de l’UE entreront en vigueur. Ces directives obligent les déployeurs et les fournisseurs à signaler les incidents graves liés aux systèmes d’IA dans des environnements à haut risque tels que les infrastructures critiques.
C’est une publication opportune. Nick Moës, directeur exécutif de The Future Society, a averti lors de la table ronde phare d’Athènes à Londres en décembre dernier :
« Cela pourrait être l’une des dernières années où nous pouvons encore prévenir un désastre lié à l’IA tel que défini par l’OCDE. L’échelle et la croissance des incidents que nous observons sont déjà préoccupantes. »
La Réglementation Est-Elle Adéquate ?
La réglementation en cours de développement est-elle adaptée ? Comme nous l’avons exprimé dans notre récente soumission à la consultation de la Commission sur le projet de directives et le modèle de rapport sur les incidents graves d’IA, le projet contient déjà une faille préoccupante qui doit être abordée. Il se concentre sur les défaillances à agent unique et à occurrence unique, supposant une carte de causalité simpliste pour les incidents liés à l’IA. Pourtant, certains des risques les plus graves émergent déjà des interactions entre les systèmes d’IA, où plusieurs occurrences peuvent entraîner des effets cumulés.
Un cadre de signalement des incidents qui garantit la responsabilité pour ces nouveaux risques doit faire partie de la mise en œuvre de la loi sur l’IA de l’UE. Avec les directives de l’article 73 qui doivent devenir contraignantes en août, le compte à rebours commence pour la Commission européenne afin d’incorporer ces changements.
Des Incidents Non Exclusivement Causés par un Agent Unique
Le libellé actuel des directives de l’article 73 suppose qu’un seul système contribuera à un incident à haut risque. Cependant, les systèmes d’IA deviennent de plus en plus agentiques : capables de raisonnement complexe, de décomposition des objectifs, et d’action proactive sans intervention humaine continue. Une fois déployés, ils interagiront probablement avec d’autres agents d’IA et utilisateurs, entraînant des dépendances complexes.
Dans de tels cas, attribuer un seul coupable lors d’un incident devient une approche dépassée, en particulier pour les incidents diffus ou subtils. Par exemple, lorsque les algorithmes de tarification sur le marché du carburant en Allemagne ont commencé à réagir les uns aux autres, les prix ont augmenté sans aucune coordination explicite. Ce résultat, connu sous le nom de collusion algorithmique, illustre le vide de responsabilité plus large dans la réglementation actuelle.
Des Incidents N’Issent Pas Toujours d’une Seule Occurrence
Lorsqu’ils ont réagi les uns aux autres durant le « Flash Crash » de 2010, les systèmes de trading automatisés ont provoqué un effondrement des prix de marché de près d’un trillion de dollars en quelques minutes. Cet exemple illustre comment les incidents liés à l’IA peuvent émerger de multiples interactions rapides entre systèmes plutôt que d’une seule occurrence. La vitesse à laquelle les systèmes automatisés interagissent peut également amplifier les effets des sorties de chacun.
Pour illustrer, des coupures en cascade dans l’industrie énergétique pourraient être causées par l’introduction de données volontairement falsifiées dans des systèmes d’IA en réseau contrôlant le réseau électrique.
Des Incidents Cumulatifs Doivent Également Être Abordés par la Réglementation
Ce novembre, Anthropic a rapporté la plus grande cyberattaque réalisée à l’aide d’agents d’IA ciblant des industries critiques. L’acteur menaçant lié à un État a décomposé l’attaque en tâches apparemment innocentes que Claude exécuterait sans avoir le contexte complet de leur intention malveillante. L’effet croissant de diverses tâches, plutôt qu’un événement unique, signifie que cela ne serait pas un incident clairement signalable selon les directives actuelles de l’article 73.
Les Incidents Multi-Agents Menacent Nos Intérêts Collectifs
Les failles actuelles dans le projet de directives de l’article 73 créent une ambiguïté juridique en matière de responsabilité et exposent des préjudices qui s’étendent au-delà des utilisateurs individuels. Les assureurs commerciaux commencent déjà à se protéger, avec Great American, AIG et W.R. Berkeley cherchant à exclure la couverture des responsabilités liées à l’IA causées par des risques systémiques.
Alors que les gouvernements déploient de plus en plus des systèmes d’IA pour prévoir des tendances économiques, les erreurs peuvent affecter des populations entières plutôt que des individus discrets. Ce sont ces enjeux partagés, à l’échelle de la population, que l’article 73 cherche à protéger sous la notion d’« intérêts collectifs », y compris la protection de l’environnement, la santé publique et le fonctionnement des institutions démocratiques.
Nous Manquons de Signalement par des Tiers
En raison de la nature à haut risque et diffuse de ces incidents multi-agents, et de la difficulté à tenir un seul fournisseur responsable, l’importance des mécanismes de signalement confidentiels (« whistleblowing ») est incontournable. Les directives du projet de l’article 73 ne prévoient aucun chemin structuré pour le signalement par des tiers (utilisateurs, société civile, universités) et les lanceurs d’alerte.
Il Est Temps de Combler le Fossé
Les directives du projet de l’article 73 exposent un manque alarmant de préparation à la réglementation des systèmes d’IA agentiques. Ces directives seront légalement contraignantes à partir d’août 2026, et telles qu’elles sont actuellement rédigées, elles ne nous fournissent aucun outil pour rendre responsables les incidents multi-agents et prévenir les dommages cumulés à nos intérêts collectifs.
La Commission européenne devrait élargir sa compréhension et sa réponse aux incidents liés à l’IA, en commençant par une définition plus réaliste du préjudice. Les incidents signalables ne devraient pas être limités aux défaillances des systèmes isolés, mais élargis pour inclure les ruptures qui émergent lorsque les systèmes d’IA interagissent les uns avec les autres — souvent de manière imprévisible et cumulée.
Reconnaître ces formes de préjudice nécessite de dépasser un modèle de risque étroit et individualisé et de tenir compte explicitement de la manière dont le comportement coordonné ou en cascade de l’IA peut saper la confiance publique et la résilience sociale.
Pour rendre de tels préjudices visibles dans la pratique, la Commission devrait également permettre des mécanismes de signalement plus solides. Cela inclut la possibilité de canaux de signalement confidentiels et de tiers afin que les lanceurs d’alerte, les organisations de la société civile et les chercheurs universitaires puissent faire remonter les échecs multi-agents sans crainte de représailles. Sans ces voies, de nombreux incidents graves et systémiques liés à l’IA risquent de rester cachés, non examinés et non responsables.
