Abus de deepfake par l’IA sur X : un appel à la sécurité des plateformes

Abus des deepfakes par l’IA sur X : un examen mondial de la sécurité des plateformes

Un recours collectif déposé aux États-Unis a déclenché un nouvel examen mondial de la sécurité de l’intelligence artificielle, après que le chatbot IA de X, Grok, a été utilisé pour générer des images sexualisées non consensuelles de femmes, y compris des enfants.

Contexte de l’affaire

Le recours, déposé le 23 janvier 2026 en Caroline du Sud, fait suite à un incident où une femme, identifiée sous le nom de Jane Doe, a publié une photo d’elle entièrement vêtue sur X. D’autres utilisateurs ont ensuite incité Grok à manipuler cette image en un deepfake sexualisé. L’image altérée a circulé publiquement pendant plusieurs jours avant d’être retirée.

Les documents judiciaires indiquent que Doe a subi une détresse émotionnelle significative, notamment la peur de dommages à sa réputation et à sa carrière. Le recours allègue que X et xAI n’ont pas mis en œuvre de protections adéquates pour empêcher la génération et la diffusion d’images intimes non consensuelles, qualifiant la conduite de la plateforme de « déplorable ».

Un débat international sur la gouvernance de l’IA

Cette affaire est devenue un point focal dans un débat international plus large sur la gouvernance de l’IA générative et la responsabilité des plateformes.

Conception de l’IA sous surveillance

Selon la plainte, le système de Grok manquait de garde-fous de sécurité de contenu de base. Le recours allègue que les instructions internes du système indiquent au chatbot qu’il n’a « aucune limitation » sur le contenu adulte ou offensant, à moins d’être explicitement restreint.

Les plaignants soutiennent que l’absence de protections par défaut rendait les dommages prévisibles inévitables, en particulier dans un environnement de plateforme déjà connu pour le harcèlement et les abus.

Réactions et investigations internationales

À la suite d’une réaction publique en début janvier, xAI n’a pas immédiatement désactivé la capacité de manipulation d’images. Au lieu de cela, l’entreprise a restreint l’accès à cette fonctionnalité aux utilisateurs « Premium » payants sur X. Cette décision monétise effectivement un comportement abusif plutôt que de le prévenir. De plus, placer les contrôles de sécurité derrière des paywalls risque d’inciter à une utilisation nuisible tout en protégeant les plateformes de toute responsabilité.

Les autorités de plusieurs pays ont lancé des enquêtes ou émis des avertissements concernant Grok :

  • L’Union européenne a lancé des procédures formelles au titre de la Loi sur les services numériques, examinant si X a échoué à évaluer et à atténuer les risques systémiques.
  • Le Brésil a émis un ultimatum de 30 jours exigeant que xAI cesse de générer des images sexualisées factices, sous peine de conséquences juridiques.
  • L’Inde a averti que la suppression par X de comptes et de contenus était insuffisante, soulevant la possibilité de perdre les protections d’intermédiaire.
  • Le régulateur britannique Ofcom évalue si X a enfreint ses obligations en vertu de la Loi sur la sécurité en ligne.
  • Le Canada a élargi une enquête sur la vie privée pour déterminer si xAI avait obtenu le consentement légal pour utiliser des données personnelles dans la génération d’images.

Un tournant pour la gouvernance de l’IA ?

Pour la Campaign On Digital Ethics (CODE), l’affaire Grok illustre un échec plus large et récurrent dans la gouvernance des plateformes, qui consiste à déployer des technologies puissantes sans protections juridiquement contraignantes pour la dignité, le consentement et la prévention des dommages.

CODE soutient que les mesures de sécurité volontaires et la modération a posteriori sont insuffisantes à l’ère de l’IA générative. Les systèmes capables de produire du contenu intime et altérant l’identité doivent être soumis à des devoirs juridiques clairs, à une supervision indépendante et à des conséquences significatives en cas de préjudice.

Le résultat du litige Grok aux États-Unis, ainsi que les réponses réglementaires qui suivront à l’international, pourraient aider à déterminer si les plateformes seront enfin tenues d’intégrer les coûts sociaux des technologies qu’elles déploient.

Scroll to Top