Nouvelles règles IT : étiquetage obligatoire des contenus générés par l’IA

Nouvelles règles informatiques du gouvernement : l’étiquetage du contenu généré par l’IA devient obligatoire

Le gouvernement a intégré pour la première fois le contenu généré par l’IA — vidéos deepfake, audio synthétique, visuels modifiés — dans un cadre réglementaire formel en amendant les règles concernant les intermédiaires informatiques en Inde. Notifiées par la notification du gouvernement G.S.R. 120(E) et signées par le secrétaire adjoint Ajit Kumar, les Règles d’Amendement sur les Directives d’Intermédiaires en Technologie de l’Information et Code d’Éthique des Médias Numériques, 2026, entreront en vigueur le 20 février.

Exigences principales

L’exigence principale est simple : les plateformes doivent étiqueter toutes les informations générées de manière synthétique (SGI) de manière suffisamment visible pour que les utilisateurs puissent les repérer instantanément. Elles doivent également intégrer des métadonnées persistantes et des identificateurs uniques afin que le contenu puisse être retracé à son origine. Une fois ces étiquettes en place, elles ne peuvent pas être modifiées, supprimées ou altérées.

Définition du contenu généré par l’IA

Pour la première fois, la loi centrale propose une définition formelle pour le contenu généré synthétiquement. Cela inclut tout contenu audio, visuel ou audiovisuel créé ou modifié à l’aide d’une ressource informatique qui semble réel — et qui représente des personnes ou des événements d’une manière qui pourrait être considérée comme authentique.

Cependant, tout ce qui est simplement modifié par un filtre ne tombe pas sous cette définition. L’édition de routine — correction des couleurs, réduction du bruit, compression, traduction — est exemptée, tant qu’elle ne déforme pas le sens original. Les documents de recherche, les supports de formation, les PDF, les présentations et les ébauches hypothétiques utilisant du contenu illustratif sont également exclus.

Conformité accrue pour les grandes plateformes

Les efforts les plus lourds incombent aux grandes plateformes de médias sociaux — Instagram, YouTube, Facebook, entre autres. Selon la nouvelle Règle 4(1A), avant qu’un utilisateur ne télécharge un contenu, la plateforme doit poser la question : « Ce contenu est-il généré par l’IA ? » Mais cela ne s’arrête pas à une simple déclaration d’auto-évaluation. Les plateformes doivent également déployer des outils automatisés pour vérifier le format, la source et la nature du contenu avant qu’il ne soit mis en ligne.

Si un contenu est signalé comme synthétique, il doit porter une étiquette de divulgation visible. Si une plateforme laisse passer un contenu en violation de cette règle, elle est considérée comme ayant échoué à son devoir de diligence.

Réduction du délai d’action

Les fenêtres de réaction ont été réduites. Les plateformes disposent maintenant de trois heures pour agir sur certaines ordonnances légales — contre 36 heures auparavant. Le délai de 15 jours est désormais de sept jours, et le délai de 24 heures a été réduit de moitié à 12 heures.

Lien direct avec la loi criminelle

Les règles établissent également un lien direct entre le contenu synthétique et le droit pénal. Les SGI impliquant du matériel d’abus sexuel sur des enfants, du contenu obscène, des enregistrements électroniques faux, du matériel lié aux explosifs, ou des deepfakes qui déforment l’identité ou la voix d’une personne réelle tombent désormais sous le Bharatiya Nyaya Sanhita, la Loi POCSO et la Loi sur les Substances Explosives.

Avertissements aux utilisateurs

Les plateformes doivent également avertir les utilisateurs au moins une fois tous les trois mois — en anglais ou dans une langue du Huitième Schedule — des sanctions pour l’utilisation abusive du contenu généré par l’IA. D’un autre côté, le gouvernement a assuré aux intermédiaires que le fait d’agir contre le contenu synthétique conformément à ces règles ne les privera pas de la protection de havre sûr sous l’Article 79 de la Loi sur l’IT.

Scroll to Top