Règles de MeitY sur le contenu IA : 8 changements essentiels à connaître

Règles de contenu AI de MeitY : 8 changements clés que les utilisateurs de médias sociaux doivent connaître

Le Ministère de l’Électronique et des Technologies de l’Information (MeitY) a mis en place un cadre de conformité plus strict pour le contenu généré par l’IA sur les plateformes de médias sociaux, renforçant considérablement les délais et les normes de responsabilité tant pour les utilisateurs que pour les entreprises technologiques.

1. Pourquoi le gouvernement a agi

Le gouvernement a signalé une augmentation de l’utilisation abusive du contenu généré par l’IA, en particulier des vidéos, images et audio synthétiques conçus pour désinformer ou diffamer des individus. Les responsables soutiennent que, bien que les outils d’IA progressent rapidement, des mesures de sécurité doivent évoluer pour prévenir les dommages, la désinformation et les atteintes à la réputation.

2. Qu’est-ce qui compte comme média synthétique

Selon le nouveau cadre, le média synthétique fait référence au contenu généré ou manipulé par l’IA qui peut imiter de manière convaincante de vraies personnes, voix, événements ou situations, pouvant tromper les spectateurs. Cela inclut des vidéos deepfake réalistes, des clips audio fabriqués et des images hyper-réalistes.

3. Les modifications de routine ne nécessitent pas de label AI

MeitY a clarifié que les modifications numériques quotidiennes ne nécessitent pas de label AI. Des activités telles que l’application de filtres photo, la compression de vidéos pour téléchargement, la transcription ou la traduction de contenu, le nettoyage des bruits de fond, la génération de diapositives de présentation, le formatage de documents ou la création de graphiques sont considérées comme une assistance routinière, et non comme un média synthétique.

4. Déclaration obligatoire du contenu généré par l’IA

Les plateformes de médias sociaux doivent maintenant s’assurer que les utilisateurs déclarent clairement lorsque leur contenu est généré par l’IA. Une fois identifié comme synthétique, la plateforme doit attacher un label visible pour informer les spectateurs que le contenu n’est pas organiquement créé.

5. Avertissements trimestriels aux utilisateurs

Les plateformes sont tenues de notifier les utilisateurs tous les trois mois de leurs responsabilités légales. Ces notifications doivent préciser que le contenu illégal peut entraîner la suppression de publications, la suspension de comptes et un éventuel signalement aux autorités judiciaires.

6. Position ferme sur les deepfakes et l’usurpation d’identité

Les entreprises doivent mettre en garde explicitement les utilisateurs contre la création de deepfakes, de contenu d’usurpation d’identité ou d’images intimes non consensuelles. Les violations pourraient entraîner une suppression rapide, des actions sur le compte et des poursuites judiciaires selon les lois applicables.

7. Délais de conformité plus courts pour les suppressions

Un des changements les plus significatifs est la réduction drastique des délais de conformité. Si le gouvernement émet une directive de suppression à 11 heures, les plateformes doivent se conformer d’ici 14 heures, réduisant la fenêtre précédente de 36 heures à seulement trois heures. Des ordres peuvent être émis par des officiers de police au rang de Directeur Adjoint Général (DIG) ou supérieur.

Dans les cas impliquant des images nues ou sexuellement explicites, les plateformes doivent supprimer le contenu dans les deux heures, comparé à l’ancien délai de 24 heures. Pour le contenu trompeur signalé par les utilisateurs ou l’usurpation d’identité, les plateformes ont maintenant 36 heures pour agir, contre 72 heures auparavant.

8. Interdictions pour les entreprises de contenu IA

Les entreprises d’IA sont interdites de produire des deepfakes sexuels sans consentement, des contenus violant la vie privée corporelle, des documents d’identification gouvernementaux falsifiés, de fausses lettres de nomination, des dossiers financiers manipulés, ou des contenus d’instructions liés aux explosifs.

Ils sont également restreints dans la création de deepfakes de personnalités publiques ou politiques, y compris des discours fabriqués par des candidats aux élections, de fausses endorsements de célébrités, des interviews mises en scène, des directives falsifiées de hauts fonctionnaires ou PDG, et des visuels synthétiques de nouvelles représentant des émeutes, des attaques ou des accidents qui n’ont jamais eu lieu.

Scroll to Top