Les défis de la régulation de l’IA face aux deepfakes

Grok, Deepfakes et l’effondrement de la distinction contenu/capacité

Les réponses réglementaires récentes concernant le modèle de langage large (LLM) Grok et son utilisation dans la génération de deepfakes révèlent quelque chose de plus intéressant que le simple constat que « de nombreuses entreprises technologiques se comportent mal ». Elles mettent en lumière un décalage entre la manière dont les cadres de régulation des plateformes ont été conçus et la façon dont l’IA générative fonctionne lorsqu’elle est intégrée aux plateformes par les fournisseurs eux-mêmes : les suppressions de contenu ex-post et les sanctions des utilisateurs ne suffisent plus.

Des procureurs français ont récemment ouvert une enquête suite à la circulation de contenu généré par l’IA, tandis que l’Ofcom du Royaume-Uni a traité Grok comme un système soumis à des obligations de conception ex-ante en vertu de la Loi sur la sécurité en ligne. Des régulateurs en Australie, au Brésil, au Canada, au Japon, en Inde et ailleurs ont également exercé des pressions sur X en invoquant des règles sectorielles existantes. Ces réponses suggèrent que, pour l’instant, une grande partie de la régulation efficace de l’IA viendra de l’application de règles sectorielles existantes à de nouvelles capacités plutôt que de cadres spécifiques à l’IA.

Le problème d’architecture que la politique de contenu ne peut pas résoudre

La gouvernance traditionnelle des plateformes repose sur un principe de séparation : la plateforme fournit des capacités (hébergement, recherche, curation, recommandations) et les utilisateurs génèrent du contenu. La régulation des capacités impose des restrictions, telles que des exclusions de données d’entraînement et des fonctionnalités de sécurité, sur ce que le système peut faire. La régulation du contenu consiste en des règles concernant les résultats, telles que la suppression de publications, l’étiquetage et le déclassement. Ce modèle de gouvernance suppose que la plateforme est un intermédiaire de contenu, peu importe si elle agit de manière neutre (comme un marteau qui ne se soucie pas de savoir si vous construisez une maison ou brisez une fenêtre) ou non.

Lorsque Grok est intégré à X, cette distinction s’effondre. Plusieurs médias ont rapporté que Grok générait des deepfakes sexualisés non consensuels de personnes réelles, y compris des mineurs. Le modèle, et par extension la plateforme, ne se contente pas d’héberger ou de transmettre du contenu nuisible créé indépendamment par des utilisateurs ; sa capacité à générer ce contenu est la cause immédiate de son existence. Ainsi, lorsque Grok génère des images réalistes et non consensuelles de femmes réelles après avoir été incité par un utilisateur, le manuel standard de modération de contenu — détecter, retirer, sanctionner l’utilisateur — passe à côté de l’essentiel.

Inadéquation du géoblocage face aux problèmes de capacité

La réponse de X aux sorties de Grok — le géoblocage de certains prompts dans certaines juridictions — est intéressante car elle est manifestement inadéquate. Lorsque les dommages sont motivés par la capacité, une atténuation adéquate nécessite des contrôles au niveau de la génération elle-même plutôt que des filtres territoriaux appliqués a posteriori. Le géoblocage suppose à tort que le problème réside dans le lieu de génération. En ce qui concerne le contenu synthétique, cette hypothèse échoue.

Ce que cela révèle sur les futurs réglementaires

La mobilisation rapide des régulateurs pour traiter la capacité de Grok, comme au Royaume-Uni, au Canada et en France, révèle ce qui se passe lorsque des dommages établis tels que des images intimes non consensuelles rencontrent de nouveaux mécanismes de production comme les modèles d’IA générative sans garde-fous. Les régulateurs n’ont pas besoin de convaincre qui que ce soit que le matériel d’abus sexuel sur enfant est nuisible ou que le consentement compte pour les images intimes ; le consensus normatif existe déjà.

La leçon est que la régulation de l’IA arrive différemment de ce qui était attendu. Le goulet d’étranglement réside dans le consensus normatif concernant les dommages qui méritent d’être régulés de manière agressive. Grok a simplement trouvé l’un d’eux. Les développeurs de modèles à usage général doivent supposer qu’il en existe d’autres.

Scroll to Top