Utilisation de l’IA pour cibler les minorités et renforcer la surveillance en Inde

Rapport du Watchdog : L’utilisation de l’IA pour cibler les minorités et étendre la surveillance

Une étude récente soulève des inquiétudes concernant l’utilisation politique de l’IA générative et les protections insuffisantes.

Contexte et préoccupations

NEW DELHI – Un rapport conjoint, publié quelques jours avant le Sommet AI Impact India 2026 (16-20 février), soulève de sérieuses préoccupations concernant l’utilisation sociale et politique de l’intelligence artificielle en Inde, en particulier son impact sur les communautés musulmanes.

Le rapport, intitulé « AI Impact Summit India 2026 : Gouvernance de l’IA à l’ère du recul démocratique », a été publié par la Internet Freedom Foundation et le Centre for the Study of Organised Hate. Il affirme que les outils d’IA générative sont utilisés pour propager des récits anti-minorités, renforcer les systèmes de surveillance et influencer le processus électoral, tandis que la transparence et la réglementation restent faibles.

Exemples d’utilisation nuisible

Le rapport allègue que l’IA créative est utilisée par des acteurs politiques pour approfondir les divisions sociales et cibler les minorités, surtout les musulmans. Un exemple cité est celui de l’Assam, où l’unité d’État du Bharatiya Janata Party a partagé une vidéo générée par IA sur son compte de médias sociaux officiel. La vidéo montrait le ministre en chef de l’Assam, Himanta Biswa Sarma, tirant sur deux hommes musulmans, avec la légende « Pas de pitié ».

Les auteurs du rapport décrivent cette vidéo comme un contenu inflammatoire pouvant poser une grave menace à l’harmonie sociale.

Problèmes de sécurité et de surveillance

Le rapport souligne également les préoccupations relatives aux mesures de surveillance. Il cite une déclaration du ministre en chef du Maharashtra, Devendra Fadnavis, concernant le développement d’un outil d’IA en collaboration avec l’Indian Institute of Technology Bombay, destiné à identifier les immigrants bangladais illégaux et les réfugiés rohingyas par un premier filtrage basé sur la langue et l’accent.

Les experts linguistiques ont remis en question la fiabilité d’un tel système, soulignant les similitudes profondes entre les dialectes bengalis de part et d’autre de la frontière. Un universitaire a déclaré : « Il est extrêmement difficile, voire impossible, de déterminer la nationalité uniquement par l’accent. »

Reconnaissance faciale et risques d’erreur

Une autre préoccupation majeure soulevée est l’utilisation de la technologie de reconnaissance faciale (FRT) par les forces policières à travers plusieurs États. L’étude indique qu’il y a peu d’informations publiques sur la manière dont ces systèmes sont acquis, leur précision et comment les erreurs sont gérées. Les erreurs d’identité peuvent avoir des conséquences graves, en particulier lorsqu’elles sont liées à des enquêtes criminelles.

Un défenseur des droits numériques a déclaré : « Si un système de reconnaissance faciale fait une mauvaise correspondance, cette erreur peut suivre une personne pendant des années. Pour les minorités qui font déjà l’objet de profilage, les risques sont accrus. »

Exclusion algorithmique dans les programmes de bien-être

Le rapport met également en lumière les problèmes liés à la livraison des programmes de bien-être. Il affirme que des défauts dans les systèmes d’IA ont conduit à l’exclusion de bénéficiaires éligibles de diverses aides gouvernementales. Les citoyens doivent prouver leur éligibilité lorsque les systèmes les signalent comme inéligibles.

Un travailleur social en Uttar Pradesh a déclaré : « De nombreuses familles ne comprennent pas pourquoi leur ration ou leur pension s’arrête. On leur dit que le système les a rejetés. Il n’y a aucune explication claire et aucun moyen simple d’appel. »

Préoccupations concernant le processus électoral

L’étude soulève également des questions sur le manque de transparence des logiciels utilisés pour marquer les électeurs « suspects ». Le rapport souligne le peu de clarté concernant la manière dont les électeurs sont signalés et la manière dont les données sont vérifiées.

Un expert constitutionnel a affirmé : « Le droit de vote est fondamental. Si des systèmes automatisés sont utilisés sans transparence, les citoyens pourraient devoir passer par de longs processus juridiques juste pour protéger leurs droits de vote. »

Recommandations pour une gouvernance responsable de l’IA

Le rapport conclut avec plusieurs recommandations pour les gouvernements, l’industrie et la société civile : élaboration de politiques transparentes, révision indépendante des algorithmes, supervision humaine forte, systèmes de plainte clairs et alignement avec les normes internationales des droits de l’homme.

Un représentant du Centre for the Study of Organised Hate a déclaré : « L’intelligence artificielle devrait servir les gens, pas les cibler. La gouvernance doit être ancrée dans des valeurs constitutionnelles et des droits égaux. »

À l’approche du Sommet AI Impact India 2026 à New Delhi, le rapport a intensifié le débat sur l’utilisation de l’IA en Inde. Pour de nombreux musulmans indiens, la préoccupation principale n’est pas la technologie elle-même, mais la manière dont elle est utilisée.

Un jeune étudiant à Mumbai a résumé l’humeur : « Nous ne sommes pas contre la technologie. Nous voulons juste de l’équité. Nous voulons savoir que les nouveaux outils ne seront pas utilisés pour nous isoler. »

Le rapport conclut que l’alignement de la gouvernance de l’IA avec les valeurs démocratiques et les droits fondamentaux est essentiel pour maintenir la confiance dans un pays divers comme l’Inde.

Scroll to Top