Alerte sur l’utilisation de l’IA : le cas Bramstedt comme leçon pour les avocats

Avertissement sur les “hallmarks” de l’IA : une décision récente de la GAO fournit un avertissement pour les contestataires

Pour le meilleur ou pour le pire, l’intelligence artificielle (IA) transforme l’industrie juridique. La récente décision de la Government Accountability Office (GAO) concernant Bramstedt Surgical Inc. consacre trois pages à des avertissements sur les sanctions potentielles qu’elle aurait pu imposer au contestataire et à son avocat pour des citations incorrectes.

Pour ceux qui suivent la gestion récente des contestataires et des avocats par la GAO, il n’est pas surprenant de constater que certains documents comportaient des citations ou des arguments juridiques générés par l’IA qui ne soutiennent pas la thèse évoquée. Néanmoins, la décision de Bramstedt sert de rappel frappant que, bien que l’IA puisse être un outil utile, elle peut également créer de fortes expositions professionnelles et légales lorsqu’elle est utilisée sans supervision adéquate.

La décision de Bramstedt

Bramstedt Surgical Inc., fournisseur de services de maintenance d’instruments chirurgicaux pour le Department of Veterans Affairs (VA), a déposé une protestation post-attribution arguant que le VA aurait dû l’informer directement de l’opportunité de concourir, malgré la publication correcte de l’appel d’offres sur SAM.gov. Bien que la GAO ait rejeté la protestation pour manque de base juridique suffisante, ce qui a vraiment retenu l’attention de la GAO, ce sont les citations du contestataire à des autorités juridiques qui n’existaient tout simplement pas.

Les trois dernières pages de la décision de la GAO sont consacrées à ce qu’elle a décrit comme des citations qui “portent les hallmarks” d’autorités juridiques générées par l’IA. La GAO a noté que la protestation semblait s’appuyer sur “un modèle de langage large ou une autre intelligence artificielle… sans vérification adéquate que les résultats générés étaient précis”.

Risques clés de l’utilisation de l’IA pour les protestations d’offres

La profession juridique intègre de plus en plus l’IA dans la recherche, la rédaction et l’analyse. Utilisés de manière responsable, ces outils peuvent améliorer l’efficacité et élargir l’accès à l’information. Mais l’IA n’est qu’une étape sur le chemin vers la bonne réponse, et non la fin en soi.

  • L’IA peut générer des citations “hallucinées” : Les modèles de langage large peuvent produire des citations convaincantes mais entièrement fictives. Sans qu’un humain vérifie chaque citation pour s’assurer qu’elle existe réellement, ces erreurs peuvent se glisser dans les dépôts.
  • Les tribunaux et les organismes administratifs surveillent : Les juges et les organismes administratifs deviennent de plus en plus vigilants à l’égard des soumissions générées par l’IA. Nous sommes peut-être dans une période d’avertissements sévères, mais il n’est pas difficile d’imaginer que la patience de la GAO s’amenuise.
  • Les clients peuvent subir les conséquences : Les pénalités potentielles pour les avocats qui citent des hallucinations de l’IA sont nombreuses, mais le contestataire souffre également de dommages, peu importe d’où provient l’erreur.

Engager un dialogue entre l’IA et votre avocat

Les contestataires ne doivent pas craindre l’IA, mais ils doivent comprendre comment leur équipe juridique l’utilise. Un cabinet d’avocats réputé sera transparent sur ses processus et capable d’expliquer comment il prévient les erreurs qui ont pu se produire dans la protestation de Bramstedt.

Voici une liste de questions à considérer avant d’engager votre avocat :

  • Utilisez-vous des outils d’IA dans la recherche ou la rédaction juridiques ?
  • Quelles mesures de sécurité avez-vous mises en place pour garantir l’exactitude ?
  • Comment vérifiez-vous les citations, les faits et les autorités juridiques générés par l’IA ?
  • Avez-vous des politiques internes régissant l’utilisation de l’IA ?

La décision de la GAO concernant Bramstedt n’est pas un rejet de l’IA, mais un rappel que les contestataires et leurs avocats doivent utiliser la technologie de manière responsable. Votre avocat doit être en mesure de répondre à ces questions et vous donner confiance que tous les contenus générés par l’IA seront vérifiés par des humains.

Scroll to Top