« Tech-agnostic » mais plus strict : Au Sommet de l’IA, le gouvernement défend des normes de conformité plus strictes pour les médias synthétiques et générés par IA
New Delhi : Alors que le gouvernement se prépare à imposer des obligations de conformité plus strictes sur le contenu audiovisuel « synthétique » et généré par IA dans le cadre des modifications des Règles sur la technologie de l’information (Directives pour les intermédiaires et Code d’éthique des médias numériques) de 2021, un haut fonctionnaire a déclaré que l’accent est mis sur l’émancipation des individus plutôt que sur la pénalisation des plateformes.
Lors du Sommet de l’IA en Inde, Deepak Goel, de la division Cyber Law et Data Governance du Ministère de l’Électronique et des Technologies de l’Information (MeitY), a encadré le débat autour des risques et de la responsabilité à l’ère de l’IA générative.
Responsabilité individuelle
« À notre avis très ferme, c’est l’individu qui supporte le risque », a déclaré Goel, en soulignant des problématiques telles que le clonage vocal, les deepfakes et l’usurpation d’identité. « Mon image est clonée. Ma voix est synthétisée. Ma crédibilité est compromise. »
Approche technologique
Goel a insisté sur le fait que l’approche de l’Inde en matière de réglementation numérique a historiquement été « technologique-agnostique » pour permettre aux solutions de s’épanouir dans une base d’utilisateurs diverse et mobile-first. Tout système de provenance ou d’étiquetage, a-t-il ajouté, doit être « transparent, compréhensible, interopérable et immuable. »
Modifications des Règles IT
Les Règles IT modifiées, notifiées la semaine dernière et devant entrer en vigueur le 20 février, incluent explicitement « les informations générées synthétiquement » dans les obligations de diligence pour les intermédiaires. Les plateformes doivent exiger des divulgations des utilisateurs lors du téléchargement de contenu audiovisuel généré par IA et déployer des mesures techniques raisonnables pour vérifier ces déclarations. De plus, elles doivent retirer le contenu dans les 3 heures suivant la notification par le gouvernement.
Préoccupations de l’industrie
Bien que le gouvernement ait signalé que les règles visent la vérifiabilité et la responsabilité plutôt qu’une censure globale, les représentants de l’industrie présents au sommet ont soulevé des questions concernant la préparation opérationnelle à grande échelle.
Andy Parsons, responsable mondial de l’authenticité des contenus chez Adobe, a souligné le rôle du C2PA (Coalition for Content Provenance and Authenticity), une norme intersectorielle développée avec des partenaires tels que Microsoft et Google. La norme attache des identifiants cryptographiques aux images, vidéos et audio pour montrer comment ils ont été créés et si des outils d’IA ont été utilisés.
« Ce n’est pas une solution miracle », a déclaré Parsons, décrivant le C2PA comme une « technologie fondamentale » qui peut soutenir la transparence mais ne peut pas résoudre le problème à elle seule.
Sameer Boray du Conseil de l’Industrie des Technologies de l’Information (ITI) a partagé ce point de vue, qualifiant le C2PA de « bon début », mais avertissant qu’aucune mesure technique unique ne peut pleinement traiter les risques des médias synthétiques. Il a suggéré une approche par phases pour la conformité, compte tenu de l’échelle de l’Inde et de la diversité des appareils, langues et plateformes.
Confiance à l’ère de l’IA
Gail Kent, directrice mondiale des politiques publiques chez Google, a déclaré que la confiance à l’ère de l’IA dépendrait de la collaboration entre entreprises, gouvernements et utilisateurs. Elle a décrit trois piliers : des outils de provenance technique tels que le C2PA, des systèmes orientés utilisateur qui rendent ces identifications compréhensibles, et un investissement soutenu dans l’éducation aux médias.
« Ce n’est pas parce qu’un contenu est créé par l’IA qu’il n’est pas digne de confiance », a averti Kent, mettant en garde contre la confusion entre le contenu généré par IA et le préjudice.
Exigences de divulgation
Un point clé de discussion était l’exigence pour les utilisateurs de self-divulguer le contenu audiovisuel généré par l’IA, tandis que les plateformes vérifient et attachent des identifiants persistants. Les participants ont noté que l’adoption généralisée de normes telles que le C2PA à travers les réseaux sociaux et les services de messagerie reste inégale, soulevant des questions sur la manière dont les nouvelles obligations peuvent être mises en œuvre de manière cohérente à travers l’écosystème numérique.
Goel a indiqué que le gouvernement est ouvert à l’évolution technologique et aux solutions dirigées par le marché, mais a affirmé que la protection des citoyens reste centrale. « Il a le droit de savoir », a-t-il dit, en se référant aux utilisateurs. « Il a le droit de questionner l’usurpation d’identité. »
Avec les délais d’application qui approchent, la discussion au sommet a reflété à la fois l’urgence réglementaire et la complexité technique, positionnant l’Inde comme l’une des premières grandes démocraties à opérationnaliser la gouvernance des médias synthétiques à l’échelle nationale.
(Modifié par Shashank Kishan)
A lire aussi : Les règles de l’IA en Inde risquent de restreindre le contenu légal. La politique de retrait de trois heures est sans précédent.
