Images sexuelles non consensuelles : le défi de la loi “Take It Down Act” aux États-Unis

Images nues générées par IA : la loi “Take It Down Act” aux États-Unis permettra une suppression rapide

Depuis fin décembre 2025, le chatbot d’intelligence artificielle de X, Grok, a répondu à de nombreuses demandes visant à déshabiller des personnes réelles en transformant leurs photos en matériel sexuellement explicite. Suite à cette fonctionnalité, la société de la plateforme sociale a été soumise à un examen mondial pour avoir permis la création de représentations sexuelles non consensuelles de personnes réelles.

Le compte Grok a publié des milliers d’images “nudifiées” et sexuellement suggestives par heure. Plus troublant encore, Grok a généré des images sexualisées et du matériel sexuellement explicite de mineurs.

Réaction de X

X a choisi de blâmer les utilisateurs de la plateforme plutôt que d’assumer sa propre responsabilité. La société a publié une déclaration le 3 janvier 2026, affirmant que “quiconque utilisant ou incitant Grok à créer un contenu illégal subira les mêmes conséquences que s’il téléchargeait un contenu illégal.” Il n’est pas clair quelles mesures, le cas échéant, X a prises contre les utilisateurs.

En tant que chercheur en droit étudiant l’intersection entre le droit et les technologies émergentes, je considère cette vague d’images non consensuelles comme une issue prévisible de la combinaison des politiques laxistes de modération de contenu de X et de l’accessibilité des puissants outils d’IA générative.

Progrès législatif

La montée rapide de l’IA générative a conduit à de nombreux sites web, applications et chatbots permettant aux utilisateurs de produire du matériel sexuellement explicite, notamment la “nudification” d’images d’enfants réels. Cependant, ces applications ne sont pas aussi largement connues ou utilisées que les grandes plateformes de médias sociaux comme X.

Les législatures des États et le Congrès ont réagi rapidement. En mai 2025, le Congrès a adopté la Take It Down Act, qui rend criminelle la publication de matériel sexuellement explicite non consensuel de personnes réelles. Cette loi criminalise à la fois la publication non consentie de “représentations visuelles intimes” de personnes identifiables et les représentations générées par IA ou ordinateur de personnes identifiables.

Cependant, ces dispositions ne s’appliquent qu’aux personnes publiant le contenu sexuellement explicite, et non aux plateformes qui le distribuent, telles que les sites de médias sociaux.

Problèmes avec les plateformes

Entre-temps, les demandes de retrait des images sexuellement explicites produites par Grok semblent rester sans réponse. Même la mère de l’un des enfants d’Elon Musk, Ashley St. Clair, n’a pas pu obtenir de X la suppression des fausses images sexualisées d’elle, produites par des fans de Musk utilisant Grok. Selon The Guardian, St. Clair a déclaré que ses “plaintes auprès du personnel de X n’ont abouti à rien.”

Cette situation n’est pas surprenante, car Musk a considérablement réduit le groupe consultatif de confiance et de sécurité de Twitter peu après avoir acquis la plateforme, licenciant 80 % des ingénieurs dédiés à la sécurité et à la modération de contenu. Ces équipes sont essentielles pour prévenir les abus au sein des entreprises technologiques.

Limites des poursuites judiciaires

Les poursuites civiles, comme celle intentée par les parents d’Adam Raine, un adolescent qui s’est suicidé en avril 2025 après une interaction avec ChatGPT d’OpenAI, sont un moyen de tenir les plateformes responsables. Cependant, ces poursuites rencontrent d’importants obstacles aux États-Unis, notamment en raison de la Section 230 de la Communications Decency Act, qui protège généralement les plateformes de médias sociaux de toute responsabilité liée au contenu généré par leurs utilisateurs.

Scroll to Top