Affaire de droits d’auteur sur l’IA : Le cas des dauphins hongrois

Les dauphins hongrois : le premier cas marquant de droits d’auteur sur l’IA en Europe

Un éditeur hongrois, Like Company, a demandé au chatbot d’IA de Google, Gemini, de résumer son article sur le rêve du chanteur hongrois Kozsó d’apporter des dauphins d’eau douce de l’Amazonie au lac Balaton. Le chatbot a obéi. Cependant, Like n’a pas donné à Google l’autorisation expresse d’utiliser l’article, et a donc décidé de poursuivre en justice.

Cette affaire a été renvoyée à la Cour de justice de l’Union européenne, basée à Luxembourg, où une audience est prévue pour le 10 mars. Bien que cette affaire ne soit probablement pas le dernier mot dans la lutte entre les développeurs d’IA et les éditeurs, le verdict représentera le premier jugement majeur clarifiant comment les règles de droits d’auteur européennes abordent l’IA.

Contexte juridique

Aux États-Unis, les tribunaux ont déjà rendu deux décisions importantes impliquant Meta et Anthropic, exonérant les entreprises technologiques de toute violation des droits d’auteur. Les États-Unis permettent le « fair use », qui autorise l’utilisation non sous licence de passages de matériel protégé par des droits d’auteur pour des commentaires, critiques ou recherches au cas par cas.

En revanche, la directive sur le droit d’auteur de l’Europe offre des protections supplémentaires aux titulaires de droits. Bien qu’elle autorise l’exploration commerciale de textes et de données dans certaines instances, les titulaires de droits peuvent choisir de s’en retirer. Le nouvel Acte sur l’IA de l’UE a élargi ces possibilités de retrait pour l’entraînement des chatbots. Cependant, des questions juridiques subsistent concernant les limites de ce qui constitue une violation des droits d’auteur, tant dans la formation que dans le déploiement des modèles d’IA.

Les enjeux de l’affaire

Équilibrer les droits des créateurs avec le progrès technologique est crucial pour les ambitions de l’Europe en matière d’IA. De nombreux responsables européens craignent que le continent ne prenne du retard sur cette nouvelle technologie et envisagent de retarder certaines règles strictes sur l’IA “à haut risque” jusqu’en 2027 pour éviter d’entraver la croissance. Alors que le Parlement européen examine la possibilité de contraindre les développeurs d’IA à obtenir des licences pour le contenu protégé, la vice-présidente exécutive de la Commission européenne, Henna Virkkunen, a récemment insisté sur le fait que la formation de l’IA bénéficie de l’exemption d’exploration de textes et de données prévue par la directive sur le droit d’auteur et l’Acte sur l’IA.

Questions centrales du litige

Il appartient maintenant à la plus haute cour d’Europe de clarifier la situation. Les juges devront décider si la formation d’un modèle d’IA générative relève de l’exception commerciale d’exploration de textes et de données de la directive sur le droit d’auteur et de l’Acte sur l’IA, ou si les éditeurs devraient recevoir une compensation pour la formation.

Les questions clés incluent : Google a-t-il utilisé le contenu de l’article pour former son modèle d’IA, et le résultat a-t-il généré une communication non autorisée au public ?

Selon les éditeurs de Like, Google a utilisé leur matériel protégé par des droits d’auteur pour former Gemini au-delà de ce qui est autorisé par l’exception d’exploration de données. Il a ensuite diffusé ce contenu à un nouveau public sans autorisation.

Google, en revanche, conteste cette affirmation. Même s’il a résumé l’article de Like, Google soutient que cela ne constitue pas une communication à un “nouveau public”. De plus, il affirme que la réponse du chatbot n’a pas reproduit de parties de l’article au-delà de quelques faits centraux, et insiste sur le fait que Gemini n’a pas été formé sur l’article en question, au-delà de ce qui est permis par l’exemption d’exploration de données.

Analyse et implications

Bien que la décision du tribunal puisse avoir des implications considérables, certains analystes doutent que cette affaire soit celle qui établira un précédent. Selon Paul Keller de l’Institut de droit de l’information, il est “hautement improbable” que Gemini ait fourni ce résumé parce qu’il a été formé sur cet article protégé, mais il est beaucoup plus probable que le chatbot entièrement formé ait récupéré l’article sur le web en temps réel et l’ait résumé. Cette hypothèse est renforcée par le court laps de temps entre la publication de l’article et la requête.

Si cela s’avère vrai, cela déplace le cas de celui portant sur la manière dont les chatbots d’IA sont formés vers la question de savoir si la reproduction d’un texte protégé par un chatbot constitue une “communication non autorisée au public”.

À cet égard, des experts remettent également en question si le résumé fourni par le chatbot constitue une telle communication. Dr. Andres Guadamuz de l’Université de Sussex soutient qu’un résumé d’un article qui n’est pas derrière un paywall ne peut guère être considéré comme une communication à un nouveau public, puisque tout le monde sur Internet peut y accéder. De plus, la sortie est principalement privée et ne communique qu’à l’utilisateur concerné.

Établir un précédent pour de nouvelles technologies est toujours délicat, car les conséquences sont étendues, et aucun cas n’a des conditions parfaites qui permettraient aux tribunaux d’établir des règles claires pour l’avenir. L’affaire Like ne clarifiera pas toutes les ambiguïtés et inconnues concernant le droit d’auteur européen et l’IA, mais elle pourrait commencer à offrir des réponses nécessaires.

Une décision erronée pourrait laisser l’Europe avec le pire des deux mondes, selon Martin Kremtscher du Centre de réglementation de l’économie créative : des régimes complexes pour les développeurs d’IA et aucune protection claire pour les titulaires de droits.

Scroll to Top