Contexte et recommandations sur les lois IA et les images intimes non consensuelles
Le gouvernement irlandais a été conseillé d’utiliser sa présidence de l’UE pour promouvoir des lois plus strictes contre l’utilisation de l’IA pour générer et partager des images intimes non consensuelles. Cette recommandation provient du AI Advisory Council, qui a publié ses suggestions concernant la création et la diffusion publique d’images intimes générées par l’IA, y compris les matériaux d’abus sexuels sur enfants (CSAM).
Réponses à un scandale international
Ces recommandations surviennent en réponse à un scandale international autour des images générées par le chatbot IA Grok d’Elon Musk, partagées sur la plateforme de médias sociaux X. Bien que le document ne cherche pas à établir des faits spécifiques dans ce cas, il souligne l’urgence de la situation.
Évaluation de la législation actuelle
Selon le AI Advisory Council, la législation irlandaise est suffisamment robuste pour traiter le partage non consensuel d’images intimes générées par l’IA ainsi que la production et/ou le partage de CSAM généré par l’IA. Cependant, il est déclaré que la réponse la plus efficace face à l’essor de technologies permettant la production et la publication à grande échelle d’images intimes et de CSAM serait une approche harmonisée à l’échelle de l’UE.
Propositions pour une action européenne
Le Conseil note que le Règlement sur l’IA de l’UE n’aborde pas les technologies d’IA utilisées de cette manière et suggère des modifications. Il est proposé que le gouvernement irlandais utilise sa présidence de l’UE au second semestre de 2026 pour collaborer avec d’autres États membres afin de promouvoir l’amendement de l’article 5 du Règlement sur l’IA, conformément au mécanisme de l’Article 112(1), pour interdire les pratiques d’IA permettant aux utilisateurs de générer des images intimes non consensuelles et du CSAM.
Création d’une taxonomie nationale des préjudices en ligne
Le document appelle également le gouvernement irlandais à créer une taxonomie nationale des préjudices en ligne, incluant explicitement un niveau de préjudice automatisé et habilité par l’IA, afin de standardiser les rapports et les politiques. Cela constitue une étape essentielle pour traiter les problèmes liés à l’IA de manière systématique et coordonnée.
Soutien aux victimes et campagnes d’information
Les deux autres recommandations du Conseil portent sur le soutien à la signalisation des victimes et la préservation des preuves, ainsi que sur l’organisation d’une campagne d’information pour le public. La sensibilisation et l’éducation sont cruciales pour aider les victimes et prévenir de futurs abus.
Le AI Advisory Council a été établi par le gouvernement en janvier 2024 et réunit des experts juridiques et technologiques de premier plan sur l’IA.
