Directives de Gouvernance de l’IA en Inde : Favoriser une innovation IA sûre et fiable
L’Inde a dévoilé un cadre de gouvernance de l’IA complet et basé sur des principes, visant à permettre une innovation en intelligence artificielle (IA) sûre, fiable et inclusive à travers divers secteurs. Les directives ont été publiées en novembre 2025, en prévision du Sommet sur l’Impact de l’IA de 2026, avec pour objectif d’institutionnaliser une approche équilibrée et tournée vers l’avenir qui promeut l’innovation tout en protégeant les individus et la société.
Qu’est-ce que les Directives de Gouvernance de l’IA en Inde ?
Les Directives de Gouvernance de l’IA en Inde fournissent un cadre structuré pour guider le développement, le déploiement et la régulation des systèmes d’intelligence artificielle dans le pays. Plutôt que d’imposer des restrictions préalables lourdes, le cadre adopte une approche basée sur des principes et techno-juridique, s’appuyant sur les lois existantes tout en répondant aux risques émergents.
Les directives visent à garantir que l’adoption de l’IA soutienne la vision de développement plus large de l’Inde, incluant une croissance inclusive et la compétitivité mondiale, ainsi que l’objectif de Viksit Bharat 2047.
Pourquoi les directives sont-elles significatives ?
L’intelligence artificielle façonne de plus en plus la gouvernance, les affaires et la vie sociale. Avec une adoption rapide dans des secteurs tels que l’agriculture, la santé, l’éducation, la fabrication, l’action climatique et les services numériques, le besoin d’un cadre de gouvernance cohérent est devenu urgent.
L’Inde a déjà fait des progrès significatifs dans l’infrastructure et le renforcement des capacités en IA. Sous la mission IndiaAI, plus de 38 000 GPU ont été intégrés via une installation nationale de calcul subventionnée. AIKosh héberge plus de 9 500 ensembles de données et 273 modèles sectoriels. La Mission Nationale de Supercalcul a mis en opération plus de 40 systèmes à pétaflops, y compris AIRAWAT et PARAM Siddhi-AI. Les initiatives de renforcement des capacités soutiennent des milliers d’étudiants et de chercheurs, tandis que les Laboratoires de Données IA et les Laboratoires IndiaAI élargissent l’innovation de base.
Les nouvelles directives de gouvernance consolident ces gains et fournissent une clarté institutionnelle pour un développement responsable.
Quelle est la philosophie de gouvernance de l’IA en Inde ?
Le cadre repose sur l’idée de « L’IA pour Tous ». L’approche de l’Inde combine la capacité souveraine avec l’innovation ouverte, en s’appuyant sur l’infrastructure numérique publique, le développement de modèles indigènes et des capacités de calcul abordables.
Pour développer le cadre, le Ministère de l’Électronique et des Technologies de l’Information a constitué un comité de rédaction en juillet 2025. Ce comité a examiné les lois existantes, les développements mondiaux et les retours des parties prenantes avant de présenter un cadre en quatre parties couvrant les principes, les recommandations, les plans d’action et les directives pratiques.
Quels sont les sept principes directeurs ou Sutras ?
La base du cadre repose sur sept principes fondamentaux :
- La confiance est la fondation. La confiance doit être intégrée à toute la chaîne de valeur de l’IA, y compris la technologie, les institutions, les développeurs et les utilisateurs.
- Les personnes d’abord. Les systèmes d’IA doivent renforcer l’agence humaine et rester soumis à une surveillance humaine significative chaque fois que possible.
- Innovation avant la retenue. La gouvernance doit favoriser l’innovation et le progrès socio-économique tout en gérant les risques de manière proportionnée.
- Équité et justice. Les systèmes d’IA doivent éviter les biais et la discrimination, en particulier contre les communautés marginalisées, et promouvoir un développement inclusif.
- Responsabilité. La responsabilité doit être clairement assignée aux développeurs, déployeurs et utilisateurs en fonction de la fonction et du risque.
- Compréhensible par conception. Les systèmes d’IA doivent incorporer la transparence et l’explicabilité dans la mesure du techniquement faisable.
- Sécurité, résilience et durabilité. Les systèmes doivent être robustes, respectueux de l’environnement et équipés de dispositifs de sécurité pour minimiser les dommages.
Quelles sont les principales zones de réforme ?
Les directives décrivent des recommandations à travers six piliers : infrastructure, renforcement des capacités, politique et régulation, atténuation des risques, responsabilité et institutions.
En matière d’infrastructure, le cadre met l’accent sur l’expansion de l’accès au calcul, l’amélioration de la gouvernance des données et l’intégration de l’IA avec les infrastructures publiques numériques telles qu’Aadhaar, l’Interface de Paiements Unifiés, DigiLocker et le Marché Numérique du Gouvernement. L’intégration de l’IA avec les infrastructures publiques numériques devrait permettre une prestation de services publics évolutive et inclusive.
En matière de renforcement des capacités, l’accent est mis sur l’expansion de l’éducation en IA, la formation professionnelle, les laboratoires de base dans les villes de niveau 2 et 3, et la formation des fonctionnaires et des agences de sécurité pour gérer les risques liés à l’IA.
En matière de politique et de régulation, l’approche s’appuie sur les cadres juridiques existants tels que la Loi sur la Technologie de l’Information de 2000 et la Loi de 2023 sur la Protection des Données Personnelles Numériques. Au lieu de créer un régime réglementaire entièrement nouveau, le cadre recommande de passer en revue les lacunes réglementaires, d’introduire des amendements ciblés si nécessaire et d’utiliser des bacs à sable réglementaires pour tester les technologies émergentes.
Comment le cadre aborde-t-il les risques ?
Les systèmes d’IA peuvent introduire des risques tels que la désinformation, les deepfakes, les biais, les cyberattaques et les vulnérabilités systémiques. Les directives proposent le développement d’un cadre d’évaluation et de classification des risques spécifique à l’IA en Inde.
Elles recommandent également l’établissement d’un mécanisme national de signalement des incidents liés à l’IA pour collecter et analyser systématiquement les dommages liés à l’IA. Des institutions existantes telles que l’Équipe de Réponse aux Urgences Informatiques de l’Inde et le Centre de Protection des Infrastructures d’Information Critiques continueront à jouer des rôles clés dans la cybersécurité et la protection des infrastructures.
Une attention particulière est accordée à la protection des groupes vulnérables, y compris les enfants et les femmes, contre les systèmes d’IA exploitants et les préjudices liés au contenu synthétique.
Quels mécanismes institutionnels sont proposés ?
Pour garantir une approche gouvernementale globale, le cadre propose de nouvelles structures institutionnelles.
Un Groupe de Gouvernance de l’IA coordonnera le développement des politiques globales et alignera la gouvernance de l’IA sur les priorités nationales. Un Comité d’Experts en Technologie et Politique fournira des contributions d’experts sur les questions domestiques et internationales liées à l’IA. Un Institut de Sécurité de l’IA se concentrera sur la recherche en sécurité, le développement de normes et la validation technique.
Le Ministère de l’Électronique et des Technologies de l’Information agira en tant que ministère nodal, tandis que le NITI Aayog continuera à fournir une vision stratégique et une coordination intersectorielle.
Quel est le plan d’action ?
Le plan d’action est réparti entre des termes court, moyen et long.
À court terme, l’accent sera mis sur l’établissement d’institutions, le développement de cadres de risque spécifiques à l’Inde et la préparation de mécanismes de signalement des incidents liés à l’IA.
À moyen terme, des normes communes sur l’authentification des contenus, l’intégrité des données, l’équité et la cybersécurité seront publiées. Des bacs à sable réglementaires seront testés et des amendements juridiques seront introduits si nécessaire.
À long terme, l’Inde vise à créer un écosystème de gouvernance de l’IA agile et prêt pour l’avenir, à élargir l’engagement mondial et à contribuer à l’établissement de normes internationales.
Quelles orientations sont fournies pour l’industrie et les régulateurs ?
Pour les participants de l’industrie, les directives soulignent l’importance de la conformité aux lois indiennes existantes, l’adoption de meilleures pratiques volontaires, la transparence dans les rapports, les mécanismes de résolution des griefs et l’utilisation d’outils techno-juridiques tels que les technologies de protection de la vie privée et les audits algorithmiques.
Pour les régulateurs, le cadre conseille une intervention proportionnée, évitant les exigences lourdes de conformité à moins que cela ne soit nécessaire, et priorisant les dommages réels et présents. Il encourage également un processus d’élaboration de politiques flexible et adaptatif, informé par les retours des parties prenantes.
Que signifie cela pour l’avenir de l’IA en Inde ?
Les Directives de Gouvernance de l’IA en Inde représentent une tentative pragmatique d’équilibrer innovation et protections. En enracinant la gouvernance de l’IA dans la confiance, l’inclusion et la responsabilité, l’Inde vise à se positionner non seulement comme un leader en capacité et adoption de l’IA, mais aussi comme une voix mondiale responsable dans la gouvernance de l’IA.
Si elles sont mises en œuvre efficacement, le cadre pourrait garantir que l’IA contribue de manière significative à la transformation économique, à l’autonomisation sociale et à l’aspiration nationale de Viksit Bharat 2047, tout en protégeant les citoyens des risques technologiques émergents.
