Les enjeux de l’IA dans le domaine juridique

As AI-generated fake content mars legal cases, states want guardrails

Au printemps dernier, le juge du comté de l’Illinois, Jeffrey Goffinet, a remarqué quelque chose d’étonnant : un mémoire juridique déposé dans son tribunal citait un cas qui n’existait pas.

Goffinet, juge associé dans le comté de Williamson, a consulté deux systèmes de recherche juridique, puis s’est rendu à la bibliothèque du palais de justice, un endroit où il n’était pas allé depuis des années, pour consulter le livre qui prétendait répertorier le cas. Ce dernier n’y était pas.

Le faux cas, généré par intelligence artificielle, est tombé sur le bureau de Goffinet quelques mois après l’entrée en vigueur de la politique de la Cour suprême de l’Illinois sur l’utilisation de l’IA dans les tribunaux. Goffinet a co-dirigé un groupe de travail qui a informé cette politique, qui permet l’utilisation de l’IA tant qu’elle respecte les normes légales et éthiques existantes.

Une cohabitation nécessaire avec l’IA

« Les gens vont utiliser [l’IA], et les tribunaux ne pourront pas être un barrage contre une rivière qui déborde déjà », a déclaré Goffinet. « Nous devons apprendre à coexister avec elle. »

Alors que de plus en plus de fausses citations, de faux cas judiciaires et d’informations incorrectes apparaissent dans les documents juridiques générés par l’IA, les associations de barreaux d’État, les systèmes judiciaires d’État et les organisations juridiques nationales émettent des recommandations sur son utilisation dans le domaine juridique.

Un nombre restreint d’États envisagent ou adoptent une législation pour aborder la question, et de nombreux tribunaux et associations professionnelles se concentrent sur l’éducation des avocats.

Les conséquences des contenus générés par l’IA

Des cas de divorce aux poursuites pour discrimination, le contenu généré par l’IA peut entraîner le rejet de preuves et le refus de motions. Alors que certains États exhortent les avocats à s’appuyer sur les conseils existants concernant l’exactitude et la transparence, les nouvelles politiques abordent les préoccupations liées à la confidentialité, à la compétence et aux coûts.

La plupart des politiques et opinions encouragent les avocats à se former et à utiliser des outils d’IA propriétaires qui empêchent la saisie de données sensibles dans des systèmes open source. Étant donné que les outils d’IA pourraient également accroître l’efficacité, plusieurs politiques conseillent aux avocats de facturer moins s’ils passent moins de temps sur les affaires.

Certains États, comme Ohio, interdisent également l’utilisation de l’intelligence artificielle pour certaines tâches juridiques. Dans l’Ohio, les tribunaux sont interdits d’utiliser l’IA pour traduire des formulaires juridiques, des ordonnances judiciaires et d’autres contenus pouvant affecter l’issue d’une affaire.

Les avantages et les risques de l’IA

L’intelligence artificielle peut aider les avocats et les cabinets d’avocats en automatisant des tâches administratives, en analysant des contrats et en organisant des documents. L’IA générative peut également être utilisée pour rédiger des documents juridiques, y compris des mémoires judiciaires. Les experts affirment que l’utilisation d’outils de productivité basés sur l’IA peut faire gagner du temps aux professionnels du droit et réduire le risque d’erreurs humaines dans les tâches quotidiennes.

Cependant, les professionnels du droit à l’échelle nationale ont subi des amendes et des suspensions de licence, parmi d’autres conséquences, pour avoir soumis des documents juridiques citant de fausses citations, des cas ou des informations.

Les défis à relever

Beaucoup de professionnels du droit ne remarqueront probablement pas les cas où un système d’IA « hallucine », c’est-à-dire fait des déclarations fausses avec confiance. Selon Rabihah Butler, responsable du contenu d’entreprise pour le Risk, Fraud and Government au Thomson Reuters Institute, l’institut de recherche d’une société qui vend un système d’IA destiné à aider les avocats.

« L’IA a une telle confiance, et elle peut sembler si soignée que si vous ne faites pas attention et n’effectuez pas votre diligence raisonnable, l’hallucination est traitée comme un fait », a-t-elle déclaré.

Les tribunaux et les organisations juridiques devront envisager l’éducation, les sanctions et les actions punitives pour garantir que les professionnels du droit utilisent l’IA de manière appropriée.

Réponses institutionnelles et éducation

Depuis le début de 2025, il y a eu 518 cas documentés dans lesquels l’IA générative a produit du contenu halluciné utilisé dans les tribunaux américains, selon une base de données de Damien Charlotin, chercheur senior à l’HEC Paris.

« Jusqu’à présent, en ce qui concerne la réponse institutionnelle, il n’y a pas beaucoup d’actions car les gens ne savent pas très bien comment gérer ce genre de problème », a déclaré Charlotin. « Tout le monde sait que certains avocats utilisent l’intelligence artificielle dans leur travail quotidien. La plupart des gens sont conscients que la technologie n’est pas très mature. Mais il est toujours difficile de prévenir une erreur. »

Au 23 janvier, les associations de barreaux d’État ou des entités similaires ont émis des recommandations formelles sur l’utilisation de l’IA dans au moins 10 États et le District de Columbia, généralement sous la forme d’un avis éthique. Bien que celles-ci ne soient pas contraignantes en tant que loi, elles précisent la conduite appropriée.

En février, par exemple, le Comité d’éthique professionnelle de l’État du Texas a émis un avis sur l’éthique qui décrit les problèmes pouvant découler de l’utilisation de l’IA par les professionnels du droit. Les avocats texans doivent avoir une compréhension de base des outils d’IA générative et des garde-fous pour protéger la confidentialité des clients, a-t-il déclaré. Ils doivent également vérifier tout contenu généré par l’IA et s’abstenir de facturer les clients pour le temps économisé grâce à l’utilisation des outils d’IA.

Les professionnels du droit doivent être conscients de leur propre compétence avec les outils d’IA, a déclaré Brad Johnson, directeur exécutif du Texas Center for Legal Ethics. « Un point très important à retenir de l’avis est que si un avocat envisage d’utiliser un outil d’IA générative dans la pratique du droit, il doit avoir une compréhension raisonnable et actuelle de la technologie, car ce n’est qu’alors qu’un avocat peut vraiment évaluer les risques associés. »

Les systèmes judiciaires d’au moins 11 États — Arizona, Arkansas, Californie, Connecticut, Delaware, Illinois, New York, Ohio, Caroline du Sud, Vermont et Virginie — ont établi des politiques ou émis des règles de conduite concernant l’utilisation de l’IA par les professionnels du droit.

Dans l’Illinois, par exemple, les avocats peuvent utiliser l’intelligence artificielle et ne sont pas tenus de divulguer. La politique souligne également que les juges seront finalement responsables de leurs décisions, quelles que soient les « avancées technologiques ». « Le groupe de travail voulait souligner qu’en tant que juges, ce que nous apportons à la table est notre humanité », a déclaré Goffinet. « Et nous ne pouvons pas abdiquer notre humanité en faveur d’une décision ou d’un avis généré par l’IA. »

Initiatives législatives

Certaines législations ont été adoptées pour aborder cette question. L’année dernière, le gouverneur républicain de Louisiane, Jeff Landry, a signé une mesure qui exige des avocats qu’ils utilisent une « diligence raisonnable » pour vérifier l’authenticité des preuves, y compris le contenu généré par l’intelligence artificielle. La loi permet également aux parties dans les affaires civiles d’élever des préoccupations sur l’admissibilité des preuves si elles soupçonnent qu’elles ont été générées ou modifiées par l’intelligence artificielle.

Le sénateur démocrate de Californie, Tom Umberg, a également introduit une législation l’année dernière qui exigerait des avocats qu’ils s’assurent que des informations confidentielles ne soient pas saisies dans un système d’IA générative public. La mesure, qui a été approuvée par le Comité judiciaire du Sénat la semaine dernière, exigerait également des avocats qu’ils prennent des mesures raisonnables pour vérifier l’exactitude du matériel généré par l’IA.

Éducation des avocats

Il est également important que les associations de barreaux d’État et les écoles de droit fournissent une éducation sur l’intelligence artificielle, a déclaré Michael Hensley, conseiller chez FBT Gibbons et défenseur de l’utilisation sécurisée de l’IA dans les tribunaux de Californie. L’IA a la capacité de réduire le temps de recherche tout comme les systèmes de recherche juridique en ligne, mais elle nécessite une formation, a-t-il dit.

« J’espère que le barreau de l’État proposera une formation à ce sujet », a déclaré Hensley. « Et je pense qu’il est absolument impératif que les écoles de droit aient une session sur l’IA. »

Dans une enquête de Bloomberg Law réalisée le printemps dernier, 51 % des plus de 750 répondants ont déclaré que leurs cabinets d’avocats avaient acheté ou investi dans des outils d’intelligence artificielle générative. Un autre 21 % a déclaré qu’ils prévoyaient d’acheter des outils d’IA au cours de l’année suivante. Les avocats ont signalé utiliser l’IA générative pour la recherche juridique générale, la rédaction de communications, le résumé de récits juridiques, la révision de documents juridiques et d’autres travaux.

Parmi les cabinets d’avocats qui n’utilisaient pas l’IA générative, les avocats ont cité la production incorrecte ou peu fiable, les problèmes éthiques, les risques de sécurité et la confidentialité des données comme les principales raisons.

Tandis que les avocats et les cabinets d’avocats sont devenus plus à l’aise avec les outils d’IA, les tribunaux se montrent plus prudents, a déclaré Diane Robinson, associée principale de recherche judiciaire au National Center for State Courts. Robinson est également directrice de projet à l’Thomson Reuters Institute/NCSC AI Policy Consortium for Law and Courts, une association de praticiens du droit et de chercheurs développant des orientations et des ressources pour l’utilisation de l’IA dans les tribunaux.

L’IA a le potentiel d’améliorer le traitement des affaires et peut permettre aux personnes ayant besoin de conseils juridiques de trouver des informations en utilisant des chatbots IA, a-t-elle déclaré. Mais, a-t-elle ajouté, les tribunaux ont toujours du mal avec des preuves altérées par l’IA et des mémoires émaillés d’hallucinations.

« Les fausses preuves ne sont rien de nouveau », a déclaré Robinson. « Les gens altèrent des photographies depuis aussi longtemps qu’il y a des photographies. Mais avec l’IA, la capacité de créer des vidéos, des enregistrements audio et des images est devenue très facile, et les tribunaux ont vraiment du mal avec cela. »

Charlotin, de l’HEC Paris, a déclaré que la plupart des tribunaux et des associations professionnelles continueront de se concentrer sur l’éducation pour le moment. « Vous ne pouvez pas prévenir une erreur simplement en disant aux gens : ‘Ne faites pas d’erreur’, a-t-il dit. « Cela ne fonctionne pas. Il s’agit davantage de mettre en place des processus pour sensibiliser les gens, puis ils peuvent établir des processus pour travailler à la gestion de cela. »

Scroll to Top