Devriez-vous entrer des conseils privilégiés dans un outil d’IA public et pouvez-vous maintenir le privilège en le faisant ?
La réponse est non – il existe un risque que le tribunal considère ces conseils comme publiés au monde entier, ce qui pourrait constituer une violation de toute obligation réglementaire applicable. En pratique, cela pourrait ne représenter qu’une perte théorique plutôt qu’une perte réelle de confidentialité, mais il est conseillé d’exercer la prudence.
Quelle est la position légale ?
Pour qu’une communication soit protégée par le privilège, elle doit être (et rester) confidentielle. Il en découle que les informations qui sont « propriété publique et de notoriété publique » ne peuvent pas être considérées comme confidentielles. La confidentialité des communications repose sur l’interaction entre les personnes impliquées et l’utilisation des informations partagées dans la communication elle-même.
Comment cela s’applique-t-il aux systèmes d’IA ?
La réponse dépend en partie du système d’IA utilisé, ainsi que des termes de l’accord entre l’utilisateur et le système d’IA :
- Systèmes d’IA publics : Versions gratuites de systèmes d’IA populaires tels que ChatGPT, où les données peuvent être utilisées pour former le modèle sous-jacent et qui peuvent traiter et stocker les entrées selon leurs conditions de service standard. Les utilisateurs ne peuvent généralement pas négocier les conditions de service ou de licence.
- Systèmes d’IA sur mesure : Systèmes d’IA offrant une protection contractuelle sur la confidentialité des données, la sécurité, etc. Cette protection peut être adaptée en fonction de l’accord entre le fournisseur et l’utilisateur.
Les termes d’un système d’IA public peuvent promettre ou garantir la vie privée de l’utilisateur, ce qui peut inciter à entrer des informations autrement confidentielles. Cependant, bien que les tribunaux soient clairs sur le fait que la confidentialité n’est pas un concept binaire, la confidentialité et la vie privée ne doivent pas être utilisées de manière interchangeable. Par conséquent, la promesse de « vie privée » ne garantit pas la confidentialité.
Les exceptions possibles
La jurisprudence a déjà établi que le fait qu’une information devienne publique ne signifie pas qu’elle a été réellement accessible au grand public. Les informations confidentielles saisies dans un système d’IA public peuvent ne pas perdre leur caractère confidentiel, car les entrées peuvent ne pas être accessibles à d’autres utilisateurs ou seulement dans des circonstances très limitées.
Cependant, en l’absence d’une affaire test sur le sujet, il est envisageable qu’une « recherche intense » à l’aide de requêtes détaillées puisse entraîner la divulgation d’informations confidentielles. À mesure que les systèmes d’IA continuent d’évoluer, le risque de divulgation non intentionnelle d’informations confidentielles augmente également.
Meilleures pratiques
- Les informations confidentielles et privilégiées ne doivent pas être saisies dans un système d’IA public.
- Les avocats doivent se tenir informés des développements réglementaires et juridiques dans ce domaine.
- Le cas échéant, créer et superviser des politiques d’utilisation cohérentes des systèmes d’IA en interne.
En raison des risques substantiels associés à l’entrée d’informations dans un système d’IA public, il est prudent de supposer que toute information saisie perdra sa confidentialité, à moins qu’un tribunal ne se prononce sur l’étendue de cette perte.
