Proposition de cadre d’IA : un risque de biais contre les minorités
Alors que le Sommet sur l’impact de l’IA 2026 se prépare à débuter à New Delhi lundi, un rapport du Center for the Study of Organized Hate et de la Internet Freedom Foundation met en garde contre le cadre de gouvernance proposé pour l’intelligence artificielle en Inde. Bien que ce cadre projette une image d’inclusivité et d’innovation, il pourrait nuire de manière disproportionnée aux minorités religieuses, aux communautés Dalit et Adivasi, ainsi qu’aux minorités sexuelles et de genre, en l’absence de garanties contraignantes.
Un cadre risqué
Titré Gouvernance de l’IA à l’aube d’un recul démocratique, le rapport soutient que la préférence du gouvernement de l’Union pour la conformité volontaire et l’auto-régulation, plutôt que pour des protections statutaires applicables, risque d’ancrer des inégalités structurelles. Cela est particulièrement problématique, car les communautés marginalisées manquent souvent des ressources financières et institutionnelles nécessaires pour contester des systèmes algorithmiques opaques devant les tribunaux.
Directives gouvernementales et insuffisances
Bien que les Directives de gouvernance de l’IA du Ministère de l’Électronique et des Technologies de l’Information, publiées en novembre 2025, rejettent ce qu’elles décrivent comme une réglementation lourde en matière de conformité, le rapport affirme que la dépendance aux lois existantes, telles que la Loi sur les technologies de l’information de 2000 et la Bharatiya Nyaya Sanhita de 2023, pourrait s’avérer insuffisante pour traiter les dommages émergents liés aux systèmes de décision automatisés.
Risques pour les groupes vulnérables
La vision du gouvernement pour le sommet, intitulée « Démocratiser l’IA et combler le fossé de l’IA », ancrée dans les piliers de « Personnes, Planète et Progrès », met l’accent sur une croissance technologique inclusive. Cependant, le rapport soutient que les directives se réfèrent uniquement à des « groupes vulnérables » de manière générale et échouent à reconnaître explicitement les risques distincts auxquels font face les Musulmans, les Dalits, les Adivasis et les personnes LGBTQIA+, laissant ainsi des lacunes critiques dans les protections ciblées.
Exemples de polarisation communautaire
Le rapport documente des cas où les outils d’IA générative ont amplifié la polarisation communautaire, notamment la circulation de vidéos et d’images générées par IA ciblant des communautés musulmanes et des leaders d’opposition. Certaines de ces publications ont été partagées par des unités étatiques du Bharatiya Janata Party avant d’être supprimées suite à des critiques publiques.
Déploiement de l’IA dans la surveillance
Au-delà des dommages en ligne, le rapport soulève des préoccupations concernant le déploiement croissant de l’IA dans la police et la surveillance. Il est notamment noté que les pilotes de police prédictive dans des États comme Andhra Pradesh, Odisha et Maharashtra pourraient reproduire les biais ancrés dans les données criminelles historiques. De plus, les propositions d’utiliser des outils linguistiques d’IA pour identifier les migrants présumés sans papiers pourraient inviter à un profilage discriminatoire.
Technologie de reconnaissance faciale
L’utilisation croissante de la technologie de reconnaissance faciale dans des villes telles que Delhi, Hyderabad, Bengaluru et Lucknow est également signalée comme préoccupante, particulièrement en l’absence d’un cadre juridique dédié comparable à la réglementation de l’IA basée sur le risque de l’Union Européenne, qui restreint l’identification biométrique en temps réel dans les espaces publics.
Risques d’exclusion dans la livraison des services
Le rapport met également en lumière les risques d’exclusion dans la livraison des services sociaux, notant que l’authentification par reconnaissance faciale obligatoire dans des programmes tels que les Services intégrés de développement de l’enfant pourrait affecter de manière disproportionnée les bénéficiaires pauvres et marginalisés en cas de défaillances techniques.
Conclusion sur le cadre actuel
Tout en reconnaissant l’ambition de l’Inde de construire une capacité souveraine en IA, les auteurs concluent qu’en l’absence d’obligations de transparence contraignantes, de supervision indépendante et de protections explicites pour les minorités, le modèle de gouvernance actuel pourrait approfondir les inégalités existantes plutôt que de démocratiser le progrès technologique.
