Ce qu’il faut savoir sur les changements juridiques au Royaume-Uni visant à réguler les images nues générées par l’IA
LONDRES (AP) — Des lois qui rendront illégal de créer des images sexuelles en ligne d’une personne sans son consentement entreront bientôt en vigueur au Royaume-Uni, ont annoncé les responsables jeudi, suite à une réaction mondiale face à l’utilisation du chatbot d’intelligence artificielle Grok d’Elon Musk pour créer des deepfakes sexualisés de femmes et d’enfants.
La société de Musk, xAI, a annoncé tard mercredi qu’elle avait introduit des mesures pour empêcher Grok d’autoriser l’édition de photos de personnes réelles pour les représenter dans des vêtements révélateurs dans des endroits où cela est illégal.
Réactions gouvernementales
Le Premier ministre britannique, Keir Starmer, a salué cette initiative et a déclaré que X devait « immédiatement » garantir le respect total de la loi britannique. Il a souligné que son gouvernement resterait vigilant face à toute transgression de Grok et de ses utilisateurs.
« La liberté d’expression n’est pas la liberté de violer le consentement, » a déclaré Starmer jeudi. « Je suis heureux que des mesures aient été prises. Mais nous ne laisserons pas cela passer. Nous continuerons car il s’agit d’un débat de valeurs. »
Problèmes soulevés
Le chatbot, développé par xAI et accessible librement via la plateforme de médias sociaux X, a fait l’objet d’un examen mondial après qu’il a été révélé qu’il avait été utilisé ces dernières semaines pour générer des milliers d’images qui « déshabillent » des personnes sans leur consentement. Les images altérées numériquement comprenaient des images nues ainsi que des représentations de femmes et d’enfants en bikinis ou dans des poses sexuellement explicites.
Les critiques affirment que les lois régissant les outils d’IA générative sont depuis longtemps en retard et que les changements juridiques au Royaume-Uni auraient dû être mis en œuvre bien plus tôt.
Les actions du Royaume-Uni
Les autorités ont déclaré qu’elles adoptaient des changements législatifs pour criminaliser l’utilisation ou la fourniture d’outils de « nudification ». Premièrement, le gouvernement affirme qu’il accélère les dispositions de la Loi sur les données (Utilisation et Accès) qui rendra criminelle la création ou la demande d’images deepfake. Cette loi a été adoptée par le Parlement l’année dernière, mais n’avait pas encore été mise en application.
La législation devrait entrer en vigueur le 6 février. David Lammy, le ministre de la Justice, a déclaré : « Que cela soit un message clair à tous les criminels lâches cachés derrière un écran : vous serez arrêtés et, lorsque cela se produira, soyez assurés que vous ferez face à la pleine rigueur de la loi. »
De plus, le gouvernement a également criminalisé les applications de « nudification » dans le cadre du projet de loi sur le crime et le maintien de l’ordre, qui est actuellement en cours d’examen au Parlement. Cette nouvelle infraction criminelle rendra illégal pour les entreprises de fournir des outils conçus pour créer des images intimes non consensuelles. Kendall a déclaré que cela « s’attaquera au problème à sa source ».
Avertissements supplémentaires
L’enquête d’Ofcom est toujours en cours. Kendall a déclaré que X pourrait faire face à une amende pouvant atteindre 10 % de son chiffre d’affaires mondial en fonction des conclusions de l’enquête, ainsi qu’à un éventuel ordre du tribunal bloquant l’accès au site.
Starmer a été confronté à des appels pour que son gouvernement cesse d’utiliser X. Le bureau du Premier ministre a déclaré cette semaine qu’il examinait sa présence sur la plateforme.
Musk a insisté sur le fait que Grok respectait la loi. « Lorsque l’on demande de générer des images, il refusera de produire quoi que ce soit d’illégal, car le principe de fonctionnement de Grok est d’obéir aux lois de tout pays ou État donné, » a-t-il posté sur X. « Il peut y avoir des fois où le piratage hostile des invites de Grok provoque quelque chose d’inattendu. Si cela se produit, nous corrigeons immédiatement le bug. »
