La décision de la cour fédérale sur l’utilisation des outils d’IA et le droit au secret professionnel

Le Tribunal Fédéral statue que l’utilisation d’outils d’IA peut renoncer au privilège, même si des informations privilégiées y sont saisies

Le 10 février 2026, le tribunal de district des États-Unis pour le district sud de New York a statué qu’un accusé criminel ne pouvait pas revendiquer le privilège avocat-client sur des documents qu’il avait produits en utilisant un outil d’intelligence artificielle (IA) commercialement disponible, même s’il avait saisi des informations privilégiées de ses avocats dans l’outil.

Cette affaire est susceptible d’intéresser les entreprises qui cherchent à gérer les utilisations internes des outils d’IA, ainsi que les opérations des départements juridiques des entreprises.

Contexte de l’affaire

L’accusé, Bradley Heppner, a engagé un avocat après avoir appris qu’il était sous enquête du FBI. Simultanément, il a commencé à utiliser une version publique de l’outil d’IA « Claude » (développé par Anthropic) pour l’aider à préparer sa défense. Heppner a saisi des informations concernant l’enquête dans l’outil d’IA, générant ainsi environ 31 documents de conversations basées sur l’IA, qu’il a sauvegardés sur ses appareils et partagés avec son avocat.

Décision du Tribunal

Le juge Rakoff du S.D.N.Y. a décidé que les documents générés par l’IA n’étaient pas protégés par le privilège. Le tribunal a énoncé plusieurs raisons :

  • Le privilège de travail ne s’appliquait pas car les documents n’étaient ni produits par un avocat ni à la demande d’un avocat.
  • Le privilège avocat-client ne s’appliquait pas non plus aux communications de Heppner avec l’outil d’IA, car celles-ci ne pouvaient être considérées comme “confidentielles”. La politique de confidentialité de l’outil stipulait qu’il sauvegarde les saisies des utilisateurs pour entraîner son IA et peut divulguer ces données à des « tiers » ainsi qu’à des « autorités réglementaires gouvernementales ».

De plus, le gouvernement a fait valoir que Heppner ne pouvait pas avoir communiqué avec l’outil d’IA dans le but de demander des conseils juridiques, puisque les matériaux publics d’Anthropic affirment que l’outil ne peut pas fournir de conseils juridiques.

Implications pour les entreprises

À l’avenir, les entreprises pourraient envisager de revoir leurs pratiques, politiques et procédures liées à l’IA pour évaluer les risques potentiels que cette décision pourrait représenter pour le privilège. Il serait judicieux de réexaminer les politiques internes sur l’utilisation de l’IA à la lumière de cette décision. De plus, cette décision semble encourager l’utilisation de déploiements d’IA « d’entreprise » (plutôt que de versions disponibles au public) ainsi qu’un examen attentif des termes contractuels sous lesquels ces outils d’IA sont acquis.

Cette affaire souligne l’importance d’une gestion prudente des informations sensibles dans un environnement de plus en plus technologique.

Scroll to Top