Réglementation des contenus générés par l’IA et des deepfakes en Inde

Régulation des contenus générés par l’IA et des deepfakes en Inde : Nouvelles règles

Les règles de modification des lignes directrices pour les intermédiaires et le code d’éthique des médias numériques de 2026 marquent un tournant significatif dans le cadre de gouvernance numérique en Inde. Notifiées le 10 février 2026 et entrant en vigueur le 20 février 2026, ces modifications s’attaquent principalement à la régulation des informations générées synthétiquement (SGI), communément appelées contenus générés par l’IA ou deepfakes.

Objectifs des amendements de 2026

Les amendements visent à :

  • Réguler les contenus générés par l’IA/deepfake.
  • Prévenir l’utilisation abusive des médias synthétiques pour la fraude, l’usurpation d’identité, l’obscénité, la désinformation et les activités criminelles.
  • Imposer l’étiquetage et la traçabilité des contenus synthétiques.
  • Renforcer les délais de conformité pour les intermédiaires.
  • Aligner les références du Code pénal indien avec le Bharatiya Nyaya Sanhita, 2023.

Définition de l’information générée synthétiquement (SGI)

Une des principales ajouts est la définition formelle de :

  • Informations audio, visuelles ou audiovisuelles : Tout contenu créé, généré, modifié ou altéré à l’aide de ressources informatiques.
  • Informations générées synthétiquement (SGI) : Contenu créé par l’IA ou altéré algorithmiquement qui apparaît réel, dépeint des individus ou des événements et est perçu comme indiscernable des événements réels.

Les modifications précisent également que l’édition de routine, la correction de couleur ou la préparation de documents légitimes ne sont pas considérées comme des manipulations profondes tant qu’elles ne déforment pas le contenu sous-jacent.

Obligations de diligence pour les plateformes de contenu synthétique

Les plateformes permettant la création de contenus IA doivent :

  • Prévenir les SGI illégaux : Déployer des outils automatisés pour empêcher la création de contenus synthétiques contenant du matériel abusif, obscène, pornographique ou trompeur.
  • Étiquetage obligatoire : Tous les SGI légaux doivent être étiquetés de manière visible, incluant des divulgations permanentes et des marqueurs de provenance.

Obligations spécifiques pour les intermédiaires de médias sociaux

Avant de publier du contenu utilisateur, les intermédiaires de médias sociaux significatifs (SSMIs) doivent :

  • Exiger des utilisateurs qu’ils déclarent si le contenu est synthétique.
  • Déployer des outils de vérification pour valider ces déclarations.
  • Assurer l’étiquetage si le contenu est confirmé comme synthétique.

Si la plateforme permet sciemment du contenu synthétique non étiqueté, elle sera considérée comme ayant échoué à respecter ses obligations de diligence.

Impact légal et réglementaire

Les nouvelles règles introduisent des systèmes de détection de l’IA obligatoires, un fardeau de conformité élevé et un risque accru de responsabilité pour les plateformes de médias sociaux. Les utilisateurs peuvent faire face à des conséquences criminelles pour des deepfakes malveillants, ainsi qu’à une réduction de l’anonymat en cas de violations.

Conclusion

Les règles de modification de 2026 représentent la réglementation la plus stricte en Inde concernant les deepfakes. En définissant l’information synthétique, en imposant l’étiquetage et en renforçant les délais de retrait, le gouvernement a fait un pas décisif vers la régulation des écosystèmes de contenu généré par l’IA. La conformité pour les plateformes opérant en Inde nécessitera des infrastructures de modération IA, des systèmes de marquage de provenance et une détection des risques de contenu en temps réel.

Scroll to Top