Impact de l’IA sur la démocratie en Inde : entre gouvernance et violations des droits

Rapport conjoint : Sommet sur l’impact de l’IA en Inde 2026 – La gouvernance de l’IA à l’aube d’un recul démocratique

À l’occasion de la préparation de l’Inde pour accueillir le Sommet sur l’impact de l’IA 2026, le premier sommet mondial sur l’IA dans le Sud global, le Center for the Study of Organized Hate (CSOH) et la Internet Freedom Foundation (IFF) ont publié un rapport politique examinant le fossé saisissant entre la rhétorique officielle sur l’IA en Inde et la réalité de la haine, discrimination, surveillance, répression et violence ciblant les communautés minoritaires et marginalisées dans un contexte général de recul démocratique.

Utilisation des outils d’IA générative

Le rapport, intitulé “Sommet sur l’impact de l’IA en Inde 2026 : Gouvernance de l’IA à l’aube d’un recul démocratique”, documente comment les outils d’IA générative sont détournés, y compris par le Parti Bharatiya Janata (BJP) du Premier ministre Narendra Modi, pour diaboliser et déshumaniser les minorités religieuses. Les systèmes d’IA opaques déployés par l’État facilitent la surveillance de masse, l’exclusion de services essentiels et la suppression des électeurs.

Le rapport arrive alors que des dirigeants mondiaux, des représentants technologiques et de la société civile se rassemblent en Inde pour un sommet officiellement centré sur “la démocratisation de l’IA et le comblement du fossé numérique”.

Un modèle troublant de déploiement de l’IA

Le rapport révèle un modèle troublant de déploiement de l’IA qui nuit aux droits démocratiques et cible les communautés vulnérables. Il démontre comment le gouvernement en place et ses mandataires ont utilisé du contenu généré par l’IA sur des comptes de réseaux sociaux officiels pour propager du contenu anti-minoritaire diviseur et déshumanisant.

Par exemple, une semaine avant le sommet, l’unité du BJP en Assam a téléchargé une vidéo générée par l’IA montrant le ministre en chef de l’État tirant sur deux hommes visiblement musulmans, intitulée “Pas de pitié”.

Systèmes de surveillance sans oversight

Au-delà de la haine en ligne, les agences de la loi dans plusieurs États déploient des technologies de reconnaissance faciale, des algorithmes de police prédictive et des systèmes de surveillance alimentés par l’IA sans contrôle indépendant, autorisation judiciaire ou transparence.

Plus alarmant encore, Davendra Fadnavis, ministre en chef du BJP de l’État du Maharashtra, a récemment annoncé le développement d’un outil d’IA en collaboration avec l’Indian Institute of Technology Bombay pour détecter les prétendus immigrants bangladais et réfugiés rohingyas à travers une vérification basée sur la langue, analysant les schémas de discours, le ton et l’utilisation linguistique.

Les experts ont critiqué la création d’un tel outil pour distinguer les nationalités, avertissant qu’il pourrait devenir un instrument de discrimination contre les communautés musulmanes bengali parlantes déjà persécutées et les travailleurs migrants à faible revenu d’Assam et du Bengale occidental.

Approche de gouvernance de l’IA

Au cœur de ces préoccupations se trouve l’approche de gouvernance de l’Inde elle-même. Les Directives de gouvernance de l’IA publiées en novembre 2025 privilégient l’auto-régulation volontaire plutôt que des mécanismes de responsabilité contraignants, affirmant explicitement que “tout autre chose étant égale, l’innovation responsable doit être priorisée par rapport à la retenue prudente”.

Bien que les directives reconnaissent la nécessité de protéger les groupes vulnérables, elles échouent à traiter les préjudices spécifiques subis par les minorités religieuses, les Dalits, les Bahujans, les Adivasis et les minorités sexuelles et de genre.

Appel à l’action

Les organisations appellent les dirigeants mondiaux participant au sommet à exiger et à s’engager en faveur d’une réglementation respectueuse des droits, avec des obligations claires tout au long de la chaîne de valeur de l’IA, à interdire l’utilisation de l’IA pour la surveillance de masse et la police prédictive, à exiger la transparence et un contrôle indépendant pour tous les déploiements d’IA dans le secteur public, et à centrer les voix des communautés affectées dans les discussions sur la gouvernance de l’IA.

Les États doivent dépasser les engagements volontaires des entreprises technologiques et reconnaître d’urgence la nécessité d’une réglementation robuste pour traiter les préjudices découlant de la conception, du développement et du déploiement des systèmes d’IA.

Le rapport politique complet est disponible en téléchargement ici.

Pour les demandes de presse :

Eviane Leidig, Directrice de la recherche, Center for the Study of Organized Hate (press@csohate.org)
Apar Gupta, Avocat et Directeur fondateur, Internet Freedom Foundation (media@internetfreedom.in)

À propos des organisations :

Le Center for the Study of Organized Hate (CSOH) mène des recherches et informe les politiques pour lutter contre la haine organisée, l’extrémisme, la violence et les préjudices en ligne. L’Internet Freedom Foundation (IFF) est une organisation de défense des droits numériques basée à New Delhi qui œuvre pour protéger les droits fondamentaux des Indiens face aux technologies numériques.

Scroll to Top