Quand la sécurité nationale sert de prétexte à l’irresponsabilité de l’IA

Lorsque la sécurité nationale devient un bouclier pour échapper à la responsabilité de l’IA

À mesure que l’intelligence artificielle (IA) s’intègre dans la sécurité d’État et la surveillance à travers l’Europe, les garanties juridiques censées en limiter l’utilisation sont de plus en plus laissées de côté. Les États membres de l’UE se tournent vers l’IA pour automatiser la prise de décision, élargir la surveillance et consolider le pouvoir de l’État. Cependant, de nombreuses applications, notamment la surveillance biométrique et les évaluations de risque algorithmiques, restent largement non réglementées en matière de sécurité nationale.

En effet, les larges exemptions pour la sécurité nationale dans la législation existante sur l’IA, y compris l’article 2 de la loi sur l’IA de l’UE et l’article 3(2) de la Convention-cadre du Conseil de l’Europe sur l’IA et les droits de l’homme, ont créé des lacunes réglementaires significatives. De plus, la définition même de « sécurité nationale » est si floue qu’elle permet aux États de contourner les droits fondamentaux tout en déployant l’IA avec un minimum de supervision.

Un précédent dangereux

Dans un environnement géopolitique en rapide évolution et face à une montée de l’autoritarisme, les risques pour la sécurité nationale deviennent un prétexte commode pour la surveillance incontrôlée et l’autorité exécutive. Ce dynamisme établit un précédent dangereux. Les gouvernements de l’UE et les pays candidats invoquent la sécurité nationale pour justifier le déploiement de l’IA d’une manière qui échappe à l’examen réglementaire, particulièrement dans la surveillance et la lutte contre le terrorisme.

Il est essentiel de respecter la jurisprudence de la Cour de justice de l’Union européenne (CJUE), car elle fournit un cadre juridique pour définir la sécurité nationale et établir des seuils clairs pour quand les États peuvent outrepasser les droits fondamentaux. Sans cela, l’Europe risque de construire une architecture de sécurité alimentée par l’IA, mais protégée de la responsabilité.

La lutte contre le terrorisme au cœur des considérations de sécurité nationale de la CJUE

Bien que la législation existante de l’UE manque d’une définition concrète de la sécurité nationale, la CJUE a fourni certaines orientations à ce sujet. Selon la jurisprudence de la CJUE, la sécurité nationale correspond à « l’intérêt primordial de protéger les fonctions essentielles de l’État et les intérêts fondamentaux de la société à travers la prévention et la punition d’activités susceptibles de déstabiliser gravement les structures constitutionnelles, politiques, économiques ou sociales fondamentales d’un pays, et en particulier de menacer directement la société, la population ou l’État lui-même, comme les activités terroristes ».

Études de cas : L’utilisation de l’IA par les gouvernements sous prétextes de sécurité nationale

Identifier l’utilisation de l’IA par les gouvernements à des fins de sécurité nationale est difficile, car ces initiatives sont souvent classées. Nous examinons ci-dessous les programmes de surveillance et de sécurité pilotés par l’IA que les gouvernements peuvent justifier sous des exemptions de sécurité nationale, ainsi que des cas où la sécurité nationale a été invoquée pour éviter la supervision et les exigences de conformité.

France

Depuis la loi sur le renseignement de 2015, qui a accordé de larges pouvoirs pour effectuer des analyses algorithmiques de grands ensembles de métadonnées, la France utilise l’IA pour renforcer ses efforts de lutte contre le terrorisme, visant à identifier les activités terroristes potentielles. Au cours de la dernière décennie, les autorités ont élargi le champ des systèmes algorithmiques pour inclure la surveillance de sites web, d’applications de messagerie et de recherches sur le web pour détecter des signes d’activités extrémistes.

Un autre cas notable a eu lieu lors des Jeux Olympiques de Paris en 2024, où le gouvernement a autorisé l’utilisation de « caméras intelligentes » alimentées par l’IA pour surveiller les foules et détecter des « comportements anormaux ». Bien que l’argument de la sécurité nationale n’ait pas été invoqué, ce cas illustre comment des justifications similaires pourraient être utilisées pour défendre des initiatives de surveillance pilotées par l’IA à l’avenir.

Hongrie

Plus tôt cette année, la Hongrie a criminalisé la participation à des événements de fierté et a déployé une technologie de reconnaissance faciale contre les manifestants, permettant une identification biométrique à distance en temps réel dans les espaces publics.

Sérbie

La Sérbie a acheté une technologie de reconnaissance faciale, ce qui soulève des préoccupations quant à la possibilité que les autorités invoquent la sécurité nationale pour justifier une surveillance de masse.

Espagne

En 2017, l’Espagne a mis en œuvre un système de décision algorithmique pour déterminer la distribution de bons sociaux pour aider à payer l’électricité. Civio, une organisation de la société civile espagnole, a contesté l’algorithme public et a demandé l’accès à son code source en 2018 ; le gouvernement a refusé, invoquant la sécurité nationale.

Questions ouvertes sur les défis juridiques et réglementaires

La loi sur l’IA de l’UE, la Charte des droits fondamentaux de l’UE et la jurisprudence existante de la CJUE peuvent servir d’instruments utiles pour contraindre le pouvoir gouvernemental et la surveillance. À mesure que les gouvernements déploient de plus en plus l’IA à des fins de sécurité nationale, il est crucial de comprendre comment les réglementations existantes et la jurisprudence peuvent s’appliquer à ces technologies.

Recommandations pour la responsabilité et la supervision

Pour protéger les droits fondamentaux dans les initiatives de sécurité nationale alimentées par l’IA, la société civile peut envisager les recommandations suivantes :

  1. Collaborer avec des journalistes d’investigation pour découvrir des informations sur les initiatives de sécurité nationale basées sur l’IA.
  2. Poursuivre un contentieux stratégique pour défendre l’application stricte des conditions établies dans la jurisprudence de la CJUE.
  3. Engager des parties prenantes institutionnelles pour mieux comprendre leurs perspectives et cultures institutionnelles.
  4. Construire des coalitions transfrontalières avec des organisations de la société civile à travers l’Europe pour partager les meilleures pratiques.

Les exemptions de sécurité nationale nécessitent des limites urgentes pour éviter que la sécurité nationale ne devienne un prétexte pour la surveillance de masse et la prise de décision algorithmique incontrôlée.

Scroll to Top