Lois sur l’IA en Corée du Sud : entre innovation et régulation

Les lois sur l’IA en Corée du Sud : un pas audacieux vers la régulation

La Corée du Sud s’est engagée dans une aventure réglementaire en matière d’IA, lançant ce qui est présenté comme l’ensemble de lois le plus complet au monde. Ces lois pourraient servir de modèle pour d’autres pays, mais elles ont déjà rencontré des résistances.

Les exigences des nouvelles lois

Les lois obligent les entreprises à étiqueter le contenu généré par l’IA, une mesure critiquée tant par les startups technologiques locales pour leur rigidité que par des groupes de la société civile, qui estiment qu’elles ne vont pas assez loin. L’acte de base sur l’IA, entré en vigueur la semaine dernière, vise à répondre à l’inquiétude croissante mondiale concernant les médias créés artificiellement et la prise de décision automatisée.

Les mesures imposées

Les entreprises fournissant des services d’IA doivent :

  • Ajouter des filigranes numériques invisibles pour les contenus clairement artificiels comme les dessins animés ou les œuvres d’art.
  • Pour les deepfakes réalistes, des étiquettes visibles sont requises.

Les systèmes d’IA à fort impact, utilisés pour des diagnostics médicaux, des recrutements ou des approbations de prêts, doivent subir des évaluations de risques et documenter leurs décisions. Si un humain prend la décision finale, le système peut échapper à cette catégorie.

Sanctions et période de grâce

Les modèles d’IA extrêmement puissants nécessiteront des rapports de sécurité, bien que le seuil soit si élevé qu’aucun modèle dans le monde ne le respecte actuellement. Les entreprises qui enfreignent les règles risquent des amendes allant jusqu’à 30 millions de wons (environ 15 000 £), mais le gouvernement a promis une période de grâce d’au moins un an avant l’imposition des pénalités.

Un équilibre délicat

Bien que la loi soit présentée comme la “première au monde” à être pleinement appliquée, elle suscite des préoccupations. Selon une enquête, 98% des startups en IA se disent mal préparées à cette conformité. Lim Jung-wook, co-directeur de l’Alliance des startups, a exprimé un sentiment de frustration généralisé.

Une régulation inégale

Les entreprises doivent déterminer si leurs systèmes sont considérés comme à fort impact, un processus critiqué pour sa longueur et son incertitude. De plus, toutes les entreprises coréennes doivent se conformer à la réglementation, tandis que seules certaines entreprises étrangères, comme Google et OpenAI, y sont soumises.

Les préoccupations de la société civile

La Corée du Sud étant à l’origine de 53% des victimes mondiales de pornographie deepfake, des groupes de la société civile craignent que la législation ne protège pas suffisamment les citoyens. Quatre organisations, dont Minbyun, ont déclaré que la loi contenait peu de dispositions pour protéger les personnes touchées par les systèmes d’IA.

Un avenir incertain

Bien que le ministère des Sciences et des TIC ait déclaré que la loi vise à “éliminer l’incertitude juridique” et à construire un “écosystème IA domestique sain et sûr”, des experts estiment que la Corée du Sud a choisi une approche différente de celle d’autres juridictions. Au lieu d’un modèle strict basé sur le risque, le pays a opté pour un cadre plus flexible et basé sur des principes.

Cette initiative pourrait servir de point de référence utile dans les discussions mondiales sur la gouvernance de l’IA.

Scroll to Top