AI, Privilège et Produit de Travail : Décisions Fédérales Conflitantes Créent une Nouvelle Frontière de Risque
Deux récentes décisions de tribunaux fédéraux, rendues avec une semaine d’intervalle, atteignent des conclusions diamétralement opposées sur la question de savoir si les matériaux générés par des plateformes d’intelligence artificielle (IA) sont protégés par le privilège avocat-client ou par la doctrine du produit de travail.
Cas Heppner
Dans l’affaire United States v. Heppner (S.D.N.Y. 17 février 2026), le juge du tribunal de district des États-Unis, Rakoff, a statué que les échanges avec Claude (l’outil IA d’Anthropic) — que le défendeur criminel a utilisé indépendamment de son avocat pour analyser son exposition et sa stratégie de défense — n’étaient ni privilégiés ni protégés en tant que produit de travail. Le tribunal a conclu que Claude n’est pas un avocat et que la politique de confidentialité d’Anthropic, qui permet la collecte de données, l’entraînement du modèle et la divulgation à des tiers, a détruit toute attente raisonnable de confidentialité.
Cas Warner
Dans l’affaire Warner v. Gilbarco (E.D. Mich. 10 février 2026), la juge de la magistrature, Patti, a atteint une conclusion opposée, refusant la motion des défendeurs d’obliger la production des matériaux assistés par ChatGPT d’un plaignant pro se. Le tribunal a raisonné que les plateformes d’IA sont des outils, et non des personnes, et qu’une renonciation aux protections du produit de travail nécessite une divulgation à un adversaire, et non à un logiciel.
Tensions Clés
Ces décisions soulignent que la loi régissant l’utilisation de l’IA en contentieux est instable et sensible aux faits. Les litigants, les conseillers juridiques internes et les équipes de conformité doivent faire preuve de prudence lors du déploiement de l’IA en lien avec des enquêtes et des litiges.
Principaux Enseignements
- Traitez les interactions avec l’IA comme potentiellement découvrables. Tout comme l’email a redéfini la découverte, l’IA générative suivra. Supposer que les invites et les sorties sont enregistrées sur des serveurs tiers.
- Évitez d’entrer des informations privilégiées ou confidentielles dans des outils d’IA grand public. Les employés et clients doivent comprendre que les communications avec des plateformes IA publiques ne sont pas confidentielles.
- Effectuez un examen juridique obligatoire des conditions de la plateforme avant utilisation. Évaluez sa politique de confidentialité et ses conditions de service avant d’utiliser l’IA pour des tâches liées au contentieux.
- Préférez les configurations d’IA d’entreprise avec de meilleures protections de confidentialité contractuelles. Les modèles ouverts comme les IA grand public sont soumis à des termes larges qui déclinent la confidentialité.
- Utilisez l’IA sous la direction de l’avocat et documentez le flux de travail. La direction de l’avocat peut être critique pour la protection du produit de travail.
- Préservez les arguments du produit de travail distincts du privilège. Même si les communications avec l’IA sont considérées comme non confidentielles, la protection du produit de travail peut encore s’appliquer.
- Préparez-vous à résister à des découvertes intrusives liées à l’IA. Les parties devraient argumenter que des demandes larges pour des invites et sorties d’IA sont disproportionnées et non pertinentes.
- Établissez une gouvernance inter-départementale. La direction juridique, la conformité, l’informatique et les affaires devraient superviser conjointement les protocoles d’IA.
À l’Horizon
Les tribunaux s’efforcent activement de comprendre comment les doctrines traditionnelles de privilège s’appliquent à l’IA générative. Les litigants doivent structurer leur utilisation de l’IA en conséquence, car les opinions des tribunaux d’appel et des barreaux d’État fourniront bientôt des orientations plus claires.
