La loi sur l’IA en Corée peut-elle freiner les crimes liés aux deepfakes ?

La loi coréenne sur l’IA peut-elle stopper les crimes liés aux deepfakes alors que Grok de Musk est critiqué ?

La société d’intelligence artificielle xAI d’Elon Musk est au centre d’une controverse concernant la diffusion d’images deepfake. Alors que la loi-cadre sur le développement de l’intelligence artificielle en Corée doit entrer en vigueur la semaine prochaine, toutes les attentions se tournent vers l’efficacité de cette législation — la première réglementation complète au monde en matière d’IA.

Cependant, le scepticisme grandit quant à l’efficacité de cette loi. De nombreux experts prévoient qu’elle sera confrontée à des obstacles pratiques pour bloquer les services de deepfake de xAI ou restreindre l’accès à ceux-ci. Des responsables de l’industrie ont déclaré que le modèle d’IA, Grok, continue d’offrir des fonctionnalités sur la plateforme sociale de Musk, X, qui transforment des photos ordinaires en images deepfake à caractère sexuel.

Alors que des pays comme la Malaisie et l’Indonésie ont restreint l’accès à la plateforme et que d’autres nations ont lancé des enquêtes légales, xAI a limité cette fonctionnalité aux abonnés payants. Néanmoins, des préoccupations subsistent.

Objectifs de la loi

La loi, qui prendra effet le 22 janvier, a été promulguée pour renforcer les responsabilités des opérateurs d’IA et établir une fondation visant à instaurer la confiance dans une société guidée par l’IA. La prévention des crimes liés aux deepfakes a été citée comme un objectif clé.

Cette législation s’applique également aux opérateurs étrangers et exige qu’ils désignent des agents locaux pour remplir leurs obligations légales. Cependant, l’obligation de transparence pour étiqueter les deepfakes n’est pas spécifiquement incluse dans le rôle de l’agent local, ce qui pourrait retarder la prévention ou la réponse lors de communications avec des opérateurs étrangers.

Règlementations spécifiques

La loi exige que tout contenu généré par l’IA soit étiqueté avec des watermarks visibles sur le contenu deepfake, difficiles à distinguer de la réalité. Les violations entraînent un ordre de correction, et le non-respect peut entraîner une amende allant jusqu’à 30 millions de wons (environ 20 300 dollars).

En vertu de ces règles, les images deepfake de Grok devront comporter des watermarks. Cependant, étant donné que la loi inclut une période de grâce d’un an, l’application immédiate est impossible.

Défis à venir

Les analystes soulignent qu’après la fin de la période de grâce, il restera difficile de bloquer ou de restreindre directement les services d’IA étrangers en raison des risques de tensions commerciales. Selon Jung Chang-woo, avocat chez Lee & Kob, « sous les lois actuelles, il est difficile de faire plus que d’imposer des amendes si des entreprises étrangères comme xAI ne coopèrent pas volontairement ».

Les experts conseillent que d’ici à ce que la nouvelle loi sur l’IA prenne pleinement effet, les cas de deepfake devraient être traités sous les lois existantes telles que la loi sur les réseaux d’information et de communication ou la loi sur la protection des informations personnelles.

« La force contraignante de la loi à elle seule est faible », a déclaré Yeo Hyun-dong, avocat chez Yoon & Yang LLC. « Les réglementations doivent être complétées par des sanctions spécifiques en lien avec les lois existantes. »

Le gouvernement maintient son approche d’une réglementation minimale tout en surveillant la situation pendant un certain temps. Un responsable du ministère des Sciences et des TIC a déclaré : « Comme la technologie de l’IA est encore en développement par essais et erreurs, nous allons observer la situation pour permettre une auto-correction. »

Scroll to Top