La nouvelle loi sud-coréenne sur l’IA entre en vigueur : un premier mondial
SEOUL, Corée du Sud — La Corée du Sud est devenue le premier pays à faire entrer en vigueur une loi extensive régulant l’intelligence artificielle (IA) ce jeudi, incluant des dispositions spécifiques ciblant les deepfakes.
Le pays, abritant des géants des semi-conducteurs comme Samsung et SK hynix, aspire à se joindre aux États-Unis et à la Chine pour devenir l’une des trois principales puissances en IA.
Le cadre juridique
« La Loi de base sur l’IA entre en pleine vigueur aujourd’hui », a déclaré le président Lee Jae Myung.
Cette loi exige des entreprises qu’elles informent les utilisateurs à l’avance lorsque des services ou produits utilisent de l’IA générative. Elle impose également de clairement étiqueter le contenu, y compris les deepfakes, qui ne peuvent pas être facilement différenciés de la réalité, parmi d’autres exigences.
Adoptée en décembre 2024, cette loi vise à « établir une base de sécurité et de confiance pour soutenir l’innovation en IA », a déclaré le ministère des Sciences et des TIC.
Les violations de la loi sont passibles d’une amende pouvant atteindre 30 millions de wons (20 400 dollars).
Un cadre réglementaire sans précédent
Les médias sud-coréens affirment qu’il s’agit de la première loi de régulation de l’IA au monde à entrer en vigueur. Le ministère a décrit cette législation comme la seconde de son genre dans le monde.
Le Parlement européen a adopté les « premières règles mondiales sur l’IA » en juin 2024, mais ces règles seront mises en œuvre progressivement et ne seront pleinement applicables qu’en 2027.
Au cours de l’année passée, l’Union européenne a permis aux régulateurs d’interdire les systèmes d’IA jugés « inacceptables » pour la société, en vertu de sa Loi sur l’intelligence artificielle.
Conséquences et préoccupations
La Corée du Sud a annoncé qu’elle triplerait ses dépenses en intelligence artificielle cette année. La nouvelle législation désigne 10 domaines sensibles, y compris l’énergie nucléaire, les enquêtes criminelles, le screening de prêts, l’éducation et les soins médicaux, qui sont soumis à des exigences accrues en matière de transparence et de sécurité de l’IA.
« Les sceptiques craignent les conséquences réglementaires de l’entrée en vigueur de la loi », a déclaré Lim Mun-yeong, vice-président du conseil présidentiel sur la stratégie nationale en IA. Cependant, il a ajouté que « la transition du pays vers l’IA est encore à ses débuts, avec une infrastructure et des systèmes insuffisants ». Il a aussi précisé que « l’accélération de l’innovation en IA est nécessaire pour explorer une ère inconnue ».
En cas de besoin, « le gouvernement suspendra les réglementations, surveillera la situation et répondra de manière appropriée », a-t-il déclaré.
Technologie et sécurité
Les deepfakes ont récemment attiré l’attention mondiale après que le chatbot IA de Elon Musk, Grok, ait suscité l’indignation et des interdictions dans plusieurs pays pour avoir permis aux utilisateurs de générer des images sexualisées de personnes réelles, y compris des enfants.
Le ministère des Sciences de la Corée du Sud a déclaré que l’application de filigranes numériques ou d’identifiants similaires sur le contenu généré par l’IA constitue une « mesure de sécurité minimale pour prévenir les abus de la technologie — y compris les vidéos manipulées générées par IA ou les deepfakes ».
« C’est déjà une tendance mondiale adoptée par de grandes entreprises internationales », a ajouté le ministère.
En octobre, la Californie a signé une loi historique régulant les chatbots IA, défiant une pression de la Maison Blanche pour laisser cette technologie sans surveillance.
Cette loi exige des opérateurs qu’ils mettent en œuvre des mesures de sécurité critiques lorsque les utilisateurs interagissent avec leurs chatbots IA, et ouvre une voie pour que les gens puissent intenter des poursuites si des échecs à cet égard entraînent des tragédies.
