Algorithmes comme preuve : Étapes pratiques pour naviguer dans la découverte des preuves d’IA dans les litiges au travail
De plus en plus, l’IA s’installe dans le milieu de travail moderne. Les employeurs utilisent des outils d’IA pour tout, de la sélection des CV à la rédaction des évaluations de performance. Les managers s’appuient également sur l’IA pour préparer la documentation des employés, discuter des situations et, dans certains cas, demander des conseils juridiques. Les employés utilisent aussi des outils d’IA pour évaluer leurs revendications contre leurs employeurs.
Sans l’intervention d’un avocat, tous ces cas d’utilisation pourraient créer des preuves potentiellement découvrables dans les litiges au travail. Deux affaires récentes, United States v. Heppner et Warner v. Gilbarco, offrent une première feuille de route sur la manière dont les tribunaux abordent le privilège avocat-client et les protections de la doctrine du travail produit dans la découverte des matériaux générés par l’IA.
United States v. Heppner
Dans cette affaire, un accusé criminel a utilisé un outil d’IA générative, Claude, pour préparer des rapports analysant les charges potentielles et esquissant des stratégies de défense. Il a agi de manière indépendante, sans la direction d’un avocat, et a ensuite partagé ces matériaux générés par l’IA avec son avocat.
Après avoir appris l’utilisation de l’IA par Heppner, le gouvernement a demandé ces matériaux dans le cadre de la découverte. L’avocat de Heppner a soutenu qu’ils étaient protégés par le privilège avocat-client et la doctrine du travail produit. Le tribunal a rejeté ces arguments.
Le tribunal a établi que :
- Les matériaux n’étaient pas protégés car l’outil d’IA n’était pas un avocat.
- Heppner n’avait pas d’attente raisonnable de confidentialité, car il avait utilisé un outil d’IA non confidentiel.
- Le partage des matériaux avec l’avocat après coup ne pouvait pas “transformer” magiquement ces communications en communications privilégiées.
Warner v. Gilbarco
Dans cette affaire, une plaignante en matière d’emploi a utilisé ChatGPT pour aider à la rédaction de documents juridiques et pour sa stratégie de litige. Le défendeur a cherché à obtenir la production de tous les matériaux liés à son utilisation de l’IA dans le cadre du procès.
Le tribunal a considéré que les matériaux générés par l’IA étaient protégés par le privilège du travail produit, car ils reflétaient les impressions mentales de la plaignante et son processus de rédaction. Le tribunal a également caractérisé les plateformes d’IA générative comme des “outils, pas des personnes”.
Les leçons tirées de Heppner et Gilbarco
Ces affaires montrent que, jusqu’à présent, les tribunaux traitent les matériaux générés par l’IA comme des preuves ordinaires, soumises aux règles de découverte habituelles. Les leçons incluent :
- Utiliser l’IA sans l’implication d’un avocat peut entraîner la non-protection de ces matériaux.
- Envoyer ces matériaux à un avocat par la suite ne les protège pas automatiquement.
- Créer des matériaux générés par l’IA sur des versions publiques peut entraîner une renonciation au privilège avocat-client.
Implications pour les litiges au travail
Les réalités de l’utilisation de l’IA par les managers, les ressources humaines et les employés peuvent avoir des conséquences immédiates dans les litiges au travail. Les individus traitent souvent l’IA comme une boîte de résonance privée, cherchant des conseils ou générant des idées. Cela peut créer des preuves problématiques si ce n’est pas géré avec soin.
Par exemple, un manager demandant à ChatGPT comment licencier une employée enceinte sans risquer de discrimination pourrait voir cette question utilisée contre lui, même s’il avait des motifs légitimes.
La nouvelle frontière : découverte des preuves d’IA
Les avocats doivent désormais s’attendre à voir des demandes de découverte cherchant divers types de preuves d’IA, notamment :
- Les prompts et sorties d’IA liés aux revendications de la plaignante.
- Les évaluations de performance générées par l’IA.
- Les enregistrements de réunions et résumés créés par des assistants IA.
Étapes pratiques pour atténuer le risque de mauvaises preuves d’IA
Malgré les dangers de créer de mauvaises preuves, abandonner l’IA n’est pas une option réaliste. Les entreprises doivent mettre en place de bonnes gouvernances et contrôles :
- Créer un inventaire des outils d’IA utilisés dans l’organisation.
- Établir des politiques d’utilisation de l’IA.
- Former les managers et les ressources humaines sur les risques de découverte.
- Identifier les risques liés aux enregistrements d’IA.
- Mettre à jour les politiques de conservation des données.
- Évaluer les pratiques de conservation des litiges.
Ces mesures permettront aux entreprises de tirer parti des avantages de l’IA tout en minimisant les risques associés à son utilisation dans les litiges au travail.
