Risques de diffamation liés à l’IA autonome

Quand l’IA parle d’elle-même : Comment l’IA redéfinit le risque de diffamation

Considérons ceci : un agent d’intelligence artificielle (IA) agissant de manière autonome (c’est-à-dire qu’un processus “humain dans la boucle” n’est pas utilisé) sur une plateforme de médias sociaux publie un message diffamatoire attaquant le caractère d’un individu.

Ceci n’est pas de la science-fiction. Il s’agit plutôt d’un exemple récent d’un agent d’IA créant un contenu qui entraînerait normalement une exposition à la diffamation. D’autres exemples incluent des agents d’IA “hallucinant” et liant incorrectement des individus à des crimes, de la fraude, du terrorisme ou d’autres méfaits graves.

Les agents d’IA et l’augmentation des cas de diffamation liés à l’IA

Typiquement, un outil d’IA dépend d’entrées générées par l’utilisateur ou de demandes qui lui demandent d’effectuer des tâches et de générer des résultats. Les agents d’IA, en revanche, peuvent agir de manière autonome au nom d’un utilisateur pour accomplir certaines tâches. Ces agents sont capables de collecter des données externes, puis d’automatiser, prédire et réaliser des tâches afin d’atteindre les objectifs d’un utilisateur.

Cependant, il y a un nombre croissant de cas où l’agent d’IA agit de manière autonome contrairement à ces objectifs, y compris en se vengeant contre un utilisateur. Par exemple, un agent d’IA qui suggérait des corrections de code informatique a de manière autonome écrit et publié un article de blog nuisible diffamant un programmeur informatique. Le blog nuisible a été généré après que les suggestions de l’agent d’IA ont été rejetées par le programmeur, ce qui a conduit l’agent d’IA à envoyer au programmeur le lien vers le blog diffamatoire.

Ce cas, qui est récemment devenu viral, souligne une réalité troublante : sans protections et supervision adéquates (comme l’utilisation d’un processus “humain dans la boucle”), les agents d’IA peuvent générer et publier de manière autonome un contenu problématique qui pourrait exposer ceux qui sont responsables du système d’IA à des risques juridiques.

Responsabilité de ceux qui déploient des agents d’IA

En général, les agents d’IA eux-mêmes ne devraient pas être tenus responsables de leurs résultats car ils ne sont pas des personnes légales et ne peuvent pas indemniser ceux qui ont été lésés. Cependant, les entreprises ou les individus qui conçoivent, déploient ou contrôlent ces systèmes peuvent être responsables des actes répréhensibles des agents d’IA dont ils sont responsables.

Dans l’affaire Moffatt c. Air Canada, 2024 BCCRT 149 (Air Canada), la Cour des petites créances de la Colombie-Britannique a statué qu’Air Canada était légalement responsable des représentations faites par son chatbot sur son site web. Dans ce cas, le chatbot sur le site d’Air Canada a fourni des informations incorrectes qui ont été prises en compte. La Cour a jugé qu’Air Canada était responsable du contenu de son site même si le chatbot avait un composant interactif et qu’Air Canada était responsable de la déclaration négligente.

Diffamation au Canada et risque pour ceux qui déploient des IA

Selon la loi canadienne, une plainte pour diffamation exige que le plaignant démontre que (1) les mots en question sont diffamatoires (c’est-à-dire que les mots tendent à abaisser la réputation du plaignant aux yeux d’une personne raisonnable) ; (2) que les mots se réfèrent au plaignant ; et (3) que les mots ont été communiqués à au moins une personne autre que le plaignant. Il n’est pas nécessaire qu’un plaignant prouve que le défendeur était négligent ou avait l’intention de causer du tort.

Les éditeurs de contenu diffamatoire peuvent également être tenus responsables de diffamation s’ils ont aidé, assisté et conseillé à la publication de la diffamation.

Les tribunaux canadiens pourraient tenir une entreprise ou un individu responsable des commentaires diffamatoires faits par leurs outils d’IA. Une entreprise ou un individu utilisant un outil d’IA pourrait être considéré comme ayant aidé, assisté et conseillé un outil d’IA avec ses résultats diffamatoires, soit en donnant à un agent d’IA certains rôles et objectifs, soit en omettant d’implémenter des protections contre les hallucinations ou les résultats diffamatoires. Les tribunaux pourraient considérer que l’entreprise ou l’individu derrière un outil d’IA n’est pas simplement un acteur passif.

Les entreprises qui possèdent, développent ou hébergent des outils d’IA pourraient également faire face à une responsabilité pour les résultats de leurs outils d’IA. Un tribunal pourrait étendre le raisonnement dans l’affaire Air Canada au contexte de la diffamation et conclure qu’un système d’IA n’est pas une entité juridique distincte, ce qui signifie que l’entreprise pourrait être considérée comme ayant publié un contenu diffamatoire où elle conçoit et contrôle les protections, les objectifs et les contraintes qui façonnent les résultats de l’outil d’IA.

Points clés à retenir

Les agents d’IA autonomes représentent un nouveau risque de diffamation. Contrairement aux chatbots traditionnels, qui ont déjà été jugés au Canada pour lier ceux qui les déploient, ces systèmes peuvent collecter des informations, former des jugements et publier du contenu de manière indépendante, parfois avec des conséquences nuisibles.

À mesure que l’autonomie de l’IA augmente, des protections robustes, une supervision active et une responsabilité claire seront essentielles pour gérer le risque juridique au Canada.

La gouvernance et la supervision de l’IA sont essentielles. Les politiques de gouvernance de l’IA et la surveillance des résultats et des objectifs des outils d’IA sont susceptibles de devenir de plus en plus importantes à mesure que les outils d’IA avancent et continuent à “apprendre” et à s’adapter au fil du temps.

L’autonomie augmente le risque de publication. Plus un agent d’IA est libre de collecter des informations, de tirer des conclusions et de publier du contenu, plus il sera difficile pour un contrôleur de caractériser son rôle comme étant simplement passif. Les tribunaux pourraient considérer que des objectifs mal contraints ou des protections inadéquates contribuent à la publication.

Au moins un tribunal canadien a rejeté la notion que la responsabilité peut être évitée en affirmant que les outils d’IA sont des entités séparées et indépendantes (Air Canada).

Les entreprises qui offrent des outils d’IA devraient, avec l’aide de conseillers juridiques, examiner leurs protections contractuelles, y compris si leurs conditions générales limitent ou excluent adéquatement la responsabilité découlant de l’utilisation de ces outils.

Scroll to Top