IA aux frontières de l’Europe : enjeux éthiques et droits des migrants

À la frontière de l’Europe, l’IA teste les limites des droits de l’UE

Alors que l’Europe s’efforce de renforcer ses frontières et de freiner la migration irrégulière, l’Union européenne investit des centaines de millions d’euros dans des technologies d’intelligence artificielle — y compris des détecteurs de mensonges, des outils de reconnaissance vocale et des drones.

Les critiques affirment que cela approfondit un double standard où les règles strictes sur la technologie et la protection des données de l’Europe s’appliquent aux citoyens, mais pas aux migrants en quête d’une nouvelle vie.

Les experts consultés par The Parliament estiment que l’écart entre les valeurs des droits de l’homme professées par l’Europe et ses pratiques de contrôle des frontières est destiné à se creuser. Les dépenses consacrées aux technologies frontalières pilotées par l’IA continuent d’augmenter, tandis que le Pacte sur la migration et l’asile de la Commission européenne appelle à une numérisation accrue de la gestion des frontières.

Plus de financement de l’UE, moins de garanties

Entre 2007 et 2020, l’Union européenne a dépensé 341 millions d’euros pour des projets de contrôle aux frontières impliquant une forme d’IA, selon le groupe de recherche basé à Londres, Statewatch.

Depuis 2020, le financement de l’UE disponible pour les États membres pour les programmes de contrôle des frontières a augmenté de 45 %. Plus de 70 % de ce financement a été dirigé vers de nouvelles infrastructures, y compris des outils d’IA et le développement de systèmes de données pour surveiller la migration.

Parallèlement à l’augmentation des dépenses, des lacunes dans les réglementations strictes de l’UE en matière d’IA permettent une utilisation large de la technologie dans les contextes de migration et de sécurité.

La loi phare de l’UE sur l’IA a interdit les technologies de reconnaissance faciale et les évaluations de risque criminel, mais autorise des outils tels que les détecteurs de mensonges et les systèmes d’extraction de données de téléphones portables avec surveillance. D’autres technologies d’IA pour la migration, comme les outils de prévision utilisés pour prédire les flux migratoires irréguliers, font face à peu de garanties réglementaires.

Les migrants et les citoyens de l’UE existent dans une réalité juridique parallèle sous la loi sur l’IA, a déclaré Wael Qarssifi, ancien boursier sur la migration et la technologie au Migration and Technology Monitor.

Les technologies de l’IA s’étendent le long des frontières de l’Europe

Les technologies de migration basées sur l’IA sont déjà testées ou utilisées par les autorités nationales dans 11 pays, selon un rapport de 2023 pour l’Université d’Oxford rédigé par Derya Ozkul, professeur à l’Université de Warwick.

Les technologies de détection des mensonges sont testées en Grèce, en Lettonie et en Hongrie, tandis que l’extraction de données de téléphones portables est utilisée en Norvège, au Danemark, en Allemagne et aux Pays-Bas. D’autres autorités s’appuient sur l’IA pour vérifier des documents, évaluer des risques de sécurité, reconnaître les dialectes régionaux des demandeurs d’asile, collecter des données biométriques et piloter des drones militaires en Méditerranée.

Les systèmes les plus avancés sont utilisés en Grèce. Le Système automatisé de surveillance des frontières combine drones, caméras, détecteurs et IA pour surveiller le mouvement des migrants le long de la frontière gréco-turque et à travers la mer Égée. La Grèce a reçu plus d’un milliard d’euros de financement de l’UE pour la gestion des frontières entre 2021 et 2027.

Toutes les technologies ne présentent pas les mêmes risques. Ozkul a déclaré que les technologies d’extraction de données de téléphones portables basées sur l’IA peuvent générer de fausses routes migratoires en raison de données GPS défectueuses ou de l’utilisation de téléphones d’occasion. Bien que les données seules ne suffisent pas à rejeter une demande d’asile, elles peuvent néanmoins déformer la prise de décision.

ETIAS sous surveillance

Au-delà des lacunes liées à l’IA, les avocats et chercheurs qui s’expriment dans The Parliament affirment que les migrants et demandeurs d’asile ne bénéficient pas des mêmes protections en matière de données que les citoyens européens.

Un exemple marquant est l’ETIAS, le Système européen d’information et d’autorisation de voyage, qui doit entrer en vigueur fin 2026. Ce système est conçu pour filtrer les voyageurs en fonction des risques de sécurité et de migration irrégulière dans le cadre de la stratégie de contrôle migratoire plus large de la Commission.

Cependant, l’ampleur de la collecte de données — et son intégration dans des bases de données interconnectées à l’échelle de l’UE — a suscité des inquiétudes parmi les défenseurs de la vie privée.

Une affaire judiciaire belge, introduite par la Ligue des Droits Humains et renvoyée en décembre à la Cour de justice de l’Union européenne, soutient que l’ETIAS constitue une interférence disproportionnée avec les “droits fondamentaux” des migrants.

La définition large du “risque” dans la législation permet une collecte de données indiscriminée.

La CJEU pourrait se prononcer sur la légalité de l’ETIAS au cours de l’année à venir.

Cette notion de “risque” pour la sécurité publique est très mal définie, a déclaré Catherine Forget, l’avocate en charge de l’affaire. Il s’agit de crimmigration, non seulement de la lutte contre la grande criminalité, mais aussi de l’immigration de manière plus large.

Cependant, l’ETIAS n’est qu’une partie d’un écosystème de données beaucoup plus vaste. L’EU-LISA administre le Système européen d’entrée-sortie, le Système d’information sur les visas et Eurodac. Selon Vavoula, ces systèmes ne garantissent pas le même niveau de protection des données pour les migrants que pour les citoyens.

Et la portée de ces systèmes s’élargit. Dans le cadre du nouveau Pacte sur la migration et l’asile, Eurodac commencera à collecter des images faciales et des documents d’identité, y compris des informations sur des enfants aussi jeunes que six ans.

Depuis des décennies, l’Europe est un leader mondial en matière de réglementation numérique et de protection des données. Mais alors que le bloc poursuit une politique de frontières plus stricte et de plus en plus numérisée, la contradiction entre son cadre des droits de l’homme et ses pratiques de sécurité aux frontières deviendra encore plus évidente.

Scroll to Top