Règlementations renforcées sur l’IA : défis et opportunités pour les marques

Nouvelles règles de MeitY : un contrôle accru sur l’IA, mais les deepfakes obscènes hantent toujours les annonceurs

Quelques jours après que le Ministère de l’Électronique et des Technologies de l’Information (MeitY) a notifié des amendements importants aux règles de l’Information Technologique (Directives pour les Intermédiaires et Code d’Éthique des Médias Numériques) de 2021, les experts de l’industrie affirment que la réglementation seule ne suffira pas à neutraliser le flot croissant d’obscénités générées par l’IA en ligne.

Bien que le cadre légal soit désormais plus strict, avec des exigences de traçabilité, d’étiquetage et de suppression rapide des contenus AI sexuellement explicites, non consensuels et borderline, ces contenus continuent de circuler sur les plateformes sociales, créant ce que les experts décrivent comme une crise persistante de sécurité de marque et de gouvernance pour les annonceurs.

Règles révisées et obligations des intermédiaires

Selon les nouvelles règles, les intermédiaires doivent clairement étiqueter le matériel généré par l’IA, intégrer des métadonnées traçables et retirer le contenu illégal dans un délai de trois heures après qu’il ait été signalé par les autorités, un resserrement significatif par rapport à l’ancien délai de 36 heures. Les amendements ciblent explicitement les deepfakes, les images sexuelles non consensuelles et la manipulation synthétique, imposant des obligations de diligence raisonnable strictes aux plateformes et aux fournisseurs de services IA.

Cependant, l’application de ces règles reste le principal défi.

Cas d’utilisation problématique

MeitY a récemment adressé des avis à X, propriété d’Elon Musk, concernant l’utilisation présumée de son chatbot IA Grok, qui permettait aux utilisateurs de générer et de partager des images AI sexuellement explicites de femmes, parfois même de mineurs, par le biais de simples instructions. Les autorités ont qualifié ce problème de violation de la dignité et de la vie privée des femmes, exigeant des audits et des garde-fous de sécurité renforcés.

Ce cas met en lumière une préoccupation plus profonde : alors que les normes SGI et les règles intermédiaires sont renforcées, les outils d’IA générative rendent la création de contenu explicite et exploitant plus rapide, moins chère et plus évolutive.

Zone grise du contenu AI

Dhruv Garg, partenaire chez IGAP, déclare que le terrain le plus difficile ne réside pas dans le contenu clairement illégal, mais dans la zone grise. « La zone problématique concerne le contenu AI sexualisé, provocateur ou inapproprié pour les enfants qui peut être de mauvais goût ou éthiquement discutable mais qui ne répond pas clairement à la définition légale de l’obscénité. Cela relève moins d’un problème de droit pénal que de gouvernance de la plateforme, de normes publicitaires et de normes sociales. »

Pour les marques, cette distinction est cruciale. Alors que le contenu criminel invite à un examen réglementaire et à des mandats de suppression, le défi plus fréquent réside dans le matériel borderline amplifié algorithmiquement qui ne viole pas les dispositions pénales mais risque des retours négatifs en termes de réputation.

Responsabilité des plateformes

Les plateformes ne peuvent cependant pas se cacher derrière la neutralité si elles amplifient et monétisent du contenu borderline ou nuisible, surtout lorsque de jeunes audiences sont impliquées. Si le contenu est illégal, les plateformes risquent de perdre des protections légales si elles n’agissent pas. Si c’est légal mais controversé, la responsabilité devient réglementaire et réputationnelle.

Pour les annonceurs, la menace est double : l’adjacence de marque à du contenu synthétique explicite et l’utilisation abusive de l’image des ambassadeurs de marque par le biais de deepfakes. Le marketing d’influence, désormais central dans la stratégie de marque numérique, est particulièrement exposé.

Conclusion et perspectives d’avenir

Les nouvelles règles de MeitY tentent de combler ces lacunes en exigeant l’intégration de métadonnées dans le matériel généré par l’IA et en imposant des déclarations utilisateur lorsque des outils synthétiques sont utilisés. Cependant, les observateurs de l’industrie notent que la technologie de détection est souvent en retard par rapport aux outils de génération, rendant la modération en temps réel complexe.

Alors que l’IA brouille la ligne entre l’imagerie authentique et fabriquée, les enjeux réputationnels pour les marques n’ont jamais été aussi élevés. Dans un écosystème numérique alimenté par la viralité et l’attention monétisée, les règles SGI peuvent définir les limites, mais la coopération soutenue entre régulateurs, plateformes et industrie déterminera si ces limites tiennent.

Scroll to Top