Nouvelles règles gouvernementales sur le contenu généré par l’IA pour les plateformes sociales

Expliquez : Alors que le gouvernement renforce les règles sur le contenu généré par l’IA, que doivent faire les plateformes de médias sociaux et autres ?

Le gouvernement central a émis aujourd’hui des directives imposant aux plateformes de médias sociaux, entre autres, de clairement étiqueter tout contenu généré ou modifié par l’intelligence artificielle.

Quelles règles ont changé ?

Le Ministère de l’Électronique et de la Technologie de l’Information (MeitY) a modifié les Règles de l’Information Technologique (Directives sur les Intermédiaires et Code d’Éthique des Médias Numériques), 2021, mardi.

Le cadre des intermédiaires en Inde a été établi pour la première fois en 2011 et a été remplacé par les amendements de 2021, qui élargissaient les obligations de diligence raisonnable pour les intermédiaires de médias sociaux majeurs et introduisaient une réglementation pour les nouvelles numériques et le contenu audio-visuel organisé.

Les dernières directives s’appuient sur ces règles, intégrant l’information générée de manière synthétique (SGI), y compris les deepfakes, dans un cadre réglementaire plus strict.

Qu’est-ce qui a changé ?

Selon les nouvelles règles, les intermédiaires doivent s’assurer que le contenu généré ou modifié par l’IA est étiqueté ou identifiable, soit par des divulgations visibles, soit par des métadonnées intégrées.

Les règles permettent l’utilisation de mesures techniques telles que les métadonnées intégrées comme identifiants pour permettre une conformité flexible tout en assurant la traçabilité.

De plus, les règles rendent ces identifiants irréversibles une fois appliqués.

Les plateformes doivent également avertir les utilisateurs des conséquences d’un usage abusif de l’IA au moins une fois tous les trois mois.

En outre, le gouvernement a mandaté le déploiement d’outils automatisés pour détecter et prévenir la propagation de contenu généré par l’IA qui soit illégal, sexuellement exploitant ou trompeur.

Auparavant, une fenêtre de 36 heures était accordée aux intermédiaires pour se conformer aux ordres de retrait. Cependant, avec des mesures d’application plus strictes, les plateformes doivent désormais supprimer ou désactiver l’accès au contenu généré par l’IA dans les trois heures suivant la réception d’un ordre du tribunal ou du gouvernement.

Qu’est-ce qu’un intermédiaire ?

Les entités qui stockent ou transmettent des données pour le compte des utilisateurs finaux sont des intermédiaires. Cela inclut les fournisseurs de services de télécommunication, les places de marché en ligne, les moteurs de recherche et les médias sociaux tels que Jio, Amazon, Google, Meta, etc.

Comment les règles seront-elles appliquées ?

La phase initiale d’application se concentre sur les intermédiaires de médias sociaux de grande taille ayant cinq millions ou plus d’utilisateurs enregistrés en Inde. Cela signifie que les règles impacteront principalement les acteurs étrangers tels que Meta et X (anciennement Twitter).

Pourquoi maintenant ?

Ces mesures surviennent au milieu de la récente controverse de Grok, où le chatbot IA a généré des deepfakes explicites non consensuels. Les changements font également suite aux récentes consultations du gouvernement avec des organismes de l’industrie tels qu’IAMAI et Nasscom.

Les règles garantiront que les plateformes informent les utilisateurs sur la SGI et identifient même ceux impliqués dans la production d’un tel contenu.

Scroll to Top