Préoccupations des procureurs généraux sur les images intimes non consensuelles générées par xAI

Étude sur la lettre des procureurs généraux des États concernant xAI

La semaine dernière, 35 procureurs généraux d’États, dirigés par le Connecticut, la Caroline du Nord, l’Utah et la Pennsylvanie, ont rédigé une lettre à l’attention de xAI pour exprimer leurs préoccupations concernant les images intimes non consensuelles (NCII) générées sur la plateforme Grok.

Préoccupations soulevées

Bien que les procureurs généraux reconnaissent que des problèmes similaires existent sur d’autres plateformes d’IA, ils affirment que Grok mérite une attention particulière. Selon eux, il existe des preuves que Grok a promu et facilité la production et la diffusion publique de telles images, et ce, d’une manière très accessible, “d’un simple clic”.

Les procureurs ont expliqué qu’xAI a conçu certains comportements de chat comme une fonctionnalité, et non un bug, en développant des modèles de texte et d’image incluant du contenu explicite tel que le mode épicé. La lettre mentionne des rapports indiquant que Grok a produit des milliers d’images d’enfants “en tenue minimale”, malgré les efforts des procureurs pour faire de la génération de matériel CSAM un crime dans de nombreux États.

Rencontres avec xAI

Les procureurs ont apprécié que xAI ait récemment rencontré un groupe de procureurs pour discuter des efforts déployés pour prévenir et supprimer les NCII et signaler les cas aux forces de l’ordre. Cependant, ils restent préoccupés par le fait que les problèmes ne sont pas complètement résolus. Par exemple, ils ont cité un échec dans la suppression des demandes des utilisateurs visant à retirer du contenu non consensuel de X.

La lettre stipule : “Ayant créé ces outils de NCII et les ayant laissés se répandre pendant un certain temps, vous devez faire plus que désactiver leur utilisation.”

Demandes des procureurs généraux

Avec des milliards investis dans xAI, les procureurs généraux ont déclaré que l’entreprise doit consacrer une attention et des ressources suffisantes pour se conformer à la loi et prévenir les préjudices, afin de créer des normes industrielles. À cette fin, les procureurs ont conclu avec des demandes d’informations concernant :

  • La prévention de la création de NCII et de CSAM via Grok (et non simplement les mettre derrière un mur payant).
  • L’élimination du contenu passé.
  • La suspension et le signalement des créateurs aux autorités compétentes, le cas échéant.
  • La possibilité pour les utilisateurs de X de contrôler si leur contenu peut être modifié ou commenté par Grok.

Conclusion et impact futur

Les procureurs généraux s’attendent également à ce que d’autres plateformes d’IA soient confrontées à des préoccupations similaires, ce qui devrait rester un domaine clé d’attention pour de nombreux bureaux de procureurs en 2026. Ils continuent de se concentrer sur les développeurs qui créent des voies pour du contenu nuisible, en particulier lorsque cela impacte les enfants. Bien qu’ils ne soupçonnent pas xAI de concevoir la plateforme à des fins malveillantes, ils attendent un niveau raisonnable de responsabilité et de supervision une fois que l’utilisation nuisible est identifiée.

Les législatures étatiques et les procureurs généraux continueront de rechercher des moyens constitutionnels de réglementer l’IA en l’absence de directives fédérales claires, tout en naviguant dans les résultats du décret exécutif de décembre concernant les réglementations étatiques. Notamment, la plupart des États ayant signé cette lettre n’ont pas annoncé d’enquête formelle contre xAI, mais utilisent plutôt leur pouvoir d’écriture et de presse pour attirer l’attention sur la question.

Scroll to Top