Code de Pratique sur la Transparence des Contenus Générés par l’IA
Le bureau de l’UE sur l’IA a publié son premier projet de code de pratique concernant la transparence des contenus générés par l’IA. Ce code fournit des directives volontaires pour le marquage et l’étiquetage des sorties de l’IA (audio, image, vidéo ou texte), garantissant que les utilisateurs sont informés lorsque le contenu est créé ou manipulé par l’IA, conformément aux obligations de l’article 50 de la Loi sur l’IA qui entreront en vigueur en août 2026.
Obligations des Fournisseurs de Systèmes IA
Les fournisseurs de systèmes IA doivent s’assurer que les sorties sont marquées dans un format lisible par machine et détectable comme étant générées ou manipulées artificiellement. Le contenu généré ou manipulé par l’IA doit être marqué avec un filigrane imperceptible.
Les marques sur le contenu généré par l’IA doivent être préservées et non altérées lorsque ce contenu est utilisé comme entrée et transformé ultérieurement.
Détection
Pour rendre les sorties détectables, les fournisseurs de systèmes IA doivent permettre la détection par les utilisateurs et d’autres tiers. Ils doivent fournir, gratuitement, une interface ou un détecteur publiquement disponible pour vérifier si un contenu a été généré ou manipulé par leurs systèmes IA. Ces mécanismes de détection doivent être maintenus tout au long du cycle de vie du système et du modèle.
Les fournisseurs de systèmes IA sont invités à mettre en œuvre des mécanismes de détection judiciaire qui ne dépendent pas de la présence d’un marquage actif de l’IA.
Les solutions techniques promues doivent être efficaces, à faible coût, assurer une application en temps réel sans nuire à la qualité du contenu généré, être interopérables, robustes et fiables.
Obligations des Déployeurs de Systèmes IA
Les obligations des déployeurs complètent les solutions techniques mises en œuvre par les fournisseurs, contribuant à accroître la transparence tout au long de la chaîne de valeur de l’IA.
Les déployeurs d’un système IA qui génère ou manipule du texte publié à des fins d’information publique doivent révéler que le contenu a été généré ou manipulé par l’IA. Ils devront identifier le contenu généré et manipulé par l’IA en plaçant une icône commune à un emplacement visible et cohérent.
Mesures Spécifiques pour les Deepfakes
Pour les vidéos deepfake en temps réel, les déployeurs afficheront l’icône de manière non intrusive tout au long de l’exposition. Un avertissement sera inséré au début de l’exposition pour expliquer que le contenu affiché comprend des deepfakes.
Concernant les images deepfake, les signataires placeront l’icône de manière cohérente à tout moment dans un endroit fixe.
Mesures Spécifiques pour le Texte Généré ou Manipulé par l’IA
Pour le texte généré ou manipulé par l’IA publié à des fins d’information publique, l’icône doit être affichée à un endroit fixe, clair et distinguable. Cet emplacement pourrait inclure, mais sans s’y limiter, la position en haut du texte ou à côté de celui-ci.
Les informations fournies ici sont générales et peuvent ne pas s’appliquer à toutes les situations. Il est conseillé de consulter des conseils juridiques spécifiques basés sur des situations particulières.
