Institut IndiaAI pour un déploiement éthique de l’IA

Lancement de l’Institut de Sécurité IndiaAI pour un Déploiement Éthique de l’IA

Le Premier ministre Narendra Modi a annoncé le lancement de l’Institut de Sécurité IndiaAI, une entité dédiée à garantir le déploiement éthique, sûr et responsable des systèmes d’intelligence artificielle (IA).

Contexte et Objectifs

Lors de son discours du 17 février 2026, le PM Modi a exprimé ses préoccupations concernant l’utilisation abusive des technologies d’IA, telles que les deepfakes et les menaces pesant sur les groupes vulnérables. Il a déclaré qu’India renforce ses cadres réglementaires avec des mesures comprenant le watermarking du contenu généré par l’IA, le renforcement de la protection des données et la fondation de l’Institut de Sécurité IndiaAI pour promouvoir un usage responsable de l’IA.

Approche Équilibrée de l’IA

Il a souligné l’importance d’une approche équilibrée de l’IA en Inde, qui vise à favoriser l’innovation tout en mettant en œuvre des protections robustes pour prévenir les abus. Le PM Modi a également mis en avant la nécessité de coopération mondiale et de gouvernance responsable pour parvenir à une IA sûre et inclusive pour tous.

Engagements Globaux de l’Inde

Dans une interview accordée à l’ANI, le PM Modi a déclaré : « La technologie est un outil puissant, mais elle n’est qu’un multiplicateur de force pour l’intention humaine. Il nous appartient de veiller à ce qu’elle devienne une force pour le bien. »

Il a également évoqué les engagements globaux de l’Inde, affirmant : « Tout comme il existe des normes mondiales en matière d’aviation et de navigation pour garantir la sécurité et la responsabilité à travers les frontières, le monde doit travailler à des principes et standards communs en matière d’IA. »

Appel à un Compact Mondial sur l’IA

Le Premier ministre a plaidé pour un compact mondial sur l’IA, affirmant que les protections, la supervision humaine et la transparence doivent accompagner l’innovation pour prévenir les abus tels que les deepfakes et les activités criminelles. « Pour cela, nous avons besoin d’un compact mondial sur l’IA, fondé sur certains principes fondamentaux. Ceux-ci devraient inclure une supervision humaine efficace, la sécurité par conception, la transparence et des interdictions strictes sur l’utilisation de l’IA pour les deepfakes, les crimes et les activités terroristes. »

Responsabilité Croissante avec l’Avancement de l’IA

Le PM Modi a souligné que la responsabilité augmente à mesure que l’IA progresse : « À mesure que l’IA devient plus avancée, notre sens de la responsabilité doit s’accroître. »

Il a également noté l’importance d’une évaluation des risques qui prend en compte les réalités sociétales et les risques locaux, en considérant des préoccupations telles que la sécurité nationale et les préjudices aux groupes vulnérables.

Réponse aux Deepfakes

Le PM Modi a mentionné l’augmentation des contenus deepfake et les actions politiques qui en résultent : « L’urgence de ces protections devient évidente en raison de la montée en flèche des vidéos deepfake. »

En réponse, l’Inde a notifié des règles exigeant le watermarking du contenu généré par l’IA et l’élimination des médias synthétiques nuisibles. Parallèlement, la Loi sur la Protection des Données Personnelles Numériques renforce la protection des données et les droits des utilisateurs dans l’écosystème numérique.

Scroll to Top