Inde pourrait mener une troisième voie dans la géo-gouvernance de l’IA
Dans ce qui est devenu une course géo-technologique, chaque pays disposant de capital humain qualifié et de ressources cherche à étendre son potentiel technologique. Le paysage en constante évolution de l’intelligence artificielle (IA) représente ainsi une réponse inévitable. Cependant, cette course s’accompagne de ses propres lignes de faille, telles que les dilemmes éthiques, les lacunes réglementaires, l’élargissement des inégalités et le risque d’abus ou de conséquences imprévues. Des pays comme la Chine, les États-Unis et l’Inde semblent avoir engagé une course aux armements en IA sans précédent.
Le secrétaire général des Nations Unies a averti que la menace de l’IA est comparable à celle de la guerre nucléaire, exprimant ses préoccupations quant au potentiel de cette technologie à décider du sort de l’humanité. Cela renforce l’urgence d’une approche mondiale partagée et éthique, soutenue par des partenaires internationaux, afin de réguler l’utilisation irresponsable de l’IA par le biais d’une coopération multilatérale.
Paysage réglementaire
La Chine est un concurrent mondial proche des États-Unis, avec ses modèles d’IA open-source représentant 30 % de l’utilisation mondiale. Dans cette course technologique, la Chine a lentement développé son savoir-faire bureaucratique et sa capacité réglementaire, créant un modèle où l’État est le principal preneur de risques. Pendant ce temps, les États-Unis visent à élaborer un cadre politique national pour l’IA, mais peinent à l’adopter dans un contexte de discordes politiques internes.
En revanche, en Chine, les systèmes d’IA sont soumis à un contrôle préalable, à des exigences de traçabilité et à des lignes de responsabilité claires. Ces mesures intègrent la gouvernance de l’IA directement dans les priorités administratives de l’État, garantissant que les systèmes soient contrôlés et alignés sur des objectifs définis par l’État.
L’UE en tant que norme
L’Union européenne s’efforce de se positionner en tant que norme mondiale grâce à un cadre basé sur les risques et axé sur les droits. La loi sur l’IA de l’UE ne cherche pas un contrôle global mais classe les applications d’IA par risque, imposant des obligations strictes uniquement aux utilisations à haut risque.
Ce modèle reflète l’accent mis par l’Europe sur les droits humains, la protection des données et la responsabilité légale, même au prix d’une innovation plus lente. En revanche, le modèle américain est fondé sur une approche axée sur le marché qui privilégie l’innovation au détriment de la réglementation préventive.
Le Sud mondial et l’Inde
Le Sud mondial se trouve dans une position précaire à l’ère de l’IA, souvent réduit à être un preneur de normes plutôt qu’un faiseur de normes. De nombreux pays en développement, tels que le Brésil, l’Afrique du Sud, l’Indonésie et le Kenya, s’appuient sur des règles fragmentées ou des modèles réglementaires importés. Cela entraîne souvent un patchwork de lois sur la protection des données et de lignes directrices éthiques, insuffisant pour l’ampleur de l’IA moderne.
L’Inde continue de s’appuyer sur la loi sur les technologies de l’information de 2000 et les règles de protection des données personnelles numériques de 2025. Ces lois existantes sont insuffisantes car elles se concentrent étroitement sur la confidentialité des données et la responsabilité des intermédiaires en ligne pour le contenu généré par les utilisateurs. Elles ne traitent pas les risques fondamentaux liés à l’IA générative comme la sécurité des modèles, le biais algorithmique ou les impacts économiques des systèmes de décision autonomes.
Pour l’Inde, une grande démocratie diversifiée avec une capacité institutionnelle inégale, aucun des extrêmes n’est durable. Au lieu de cela, l’Inde doit poursuivre une troisième voie d’ouverture réglementée, combinant innovation et protections crédibles. Cela impliquerait un cadre réglementaire basé sur les risques, tirant parti du modèle de l’UE mais adapté aux réalités indiennes.
La véritable force stratégique de l’Inde réside dans son Infrastructure Numérique Publique (DPI). Des plateformes telles que Aadhaar, UPI et l’ensemble de India Stack ne se contentent pas de numériser des services ; elles fournissent un terrain d’essai inclusif pour les systèmes d’IA, sans égal à l’échelle mondiale.
Si l’Inde retarde la réglementation au nom de l’innovation, elle risque de céder le contrôle aux plateformes étrangères et aux décideurs extérieurs. La poussée de la Chine pour un leadership normatif à travers des initiatives comme l’Organisation Mondiale de la Coopération en Intelligence Artificielle (WAICO) place l’Inde à un carrefour stratégique, l’obligeant à choisir entre rester un preneur de règles passif ou façonner activement les normes en tant que leader technologique en croissance.
Il est maintenant impératif de s’engager, mais sans céder aux initiatives mondiales qui cherchent à réguler l’IA.
