L’Inde fixe un délai de 3 heures pour que les plateformes de médias sociaux retirent le contenu généré par l’IA et les deepfakes
Le gouvernement indien a donné des directives aux plateformes de médias sociaux telles que Facebook, Instagram et YouTube pour qu’elles étiquettent clairement tout contenu généré par l’IA et s’assurent que ce matériel synthétique soit accompagné d’identifiants intégrés, selon un ordre officiel.
Mesures d’application renforcées
Dans un effort d’application plus strict, le gouvernement a établi un délai de trois heures pour que les entreprises de médias sociaux retirent le contenu généré par l’IA ou les deepfakes une fois qu’il est signalé par l’État ou ordonné par un tribunal.
Les plateformes sont également interdites d’autoriser la suppression des étiquettes d’IA ou des métadonnées associées une fois qu’elles ont été appliquées, selon l’ordre.
Outils automatisés et avertissements réguliers
Pour limiter les abus, les entreprises devront déployer des outils automatisés pour détecter et prévenir la circulation de contenu généré par l’IA illégal, sexuellement exploitant ou trompeur.
De plus, les plateformes doivent régulièrement avertir les utilisateurs des conséquences en cas de violation des règles concernant l’utilisation abusive de l’IA. Ces avertissements doivent être émis au moins une fois tous les trois mois, selon le gouvernement.
Contexte et préoccupations croissantes
Les dernières directives interviennent dans un contexte de préoccupations croissantes concernant la propagation des deepfakes basés sur l’IA en ligne. Elles s’appuient sur des amendements proposés le mois dernier par le Ministère de l’Électronique et des Technologies de l’Information (MeitY) aux règles sur les Directives pour les intermédiaires et le Code d’éthique des médias numériques de 2021.
Les règles préliminaires cherchent à obliger les utilisateurs à divulguer lors de la publication tout contenu généré ou modifié par l’IA, et exigent que les plateformes adoptent des technologies pour vérifier ces déclarations.
Exemples de mise en œuvre sur les plateformes
Les plateformes de médias sociaux ont déjà déployé des fonctionnalités permettant aux utilisateurs de labelliser certains contenus comme générés ou modifiés à l’aide de l’IA. L’accent initial de l’application gouvernementale est mis sur les intermédiaires de médias sociaux de premier plan ayant cinq millions ou plus d’utilisateurs enregistrés en Inde.
Par exemple, YouTube exige actuellement que les créateurs divulguent tout contenu « significativement modifié » ou généré synthétiquement dans des cas spécifiques, incluant les vidéos où une personne apparaît dire ou faire quelque chose qu’elle n’a pas fait, modifier des séquences réelles d’événements ou de lieux, ou créer des scènes réalistes qui n’ont jamais eu lieu.
De même, Méta a demandé aux utilisateurs de Facebook et Instagram de labelliser le contenu comportant des éléments audio et visuels photoréalistes générés ou modifiés numériquement, citant des exemples tels que des conversations générées par l’IA, des chansons créées avec l’IA, et des vidéos narrées avec des voix de synthèse.
