Intégrer l’IA dans la gestion des risques juridiques

Mettre l’IA à l’ordre du jour des risques : ce que les entreprises doivent savoir

Les rapports de juristes citant des affaires générées par l’IA et intégrant des détails clients dans des systèmes d’IA générative ont attiré l’attention des régulateurs et des tribunaux. Les avocats en ont pris connaissance cette semaine, mais les assureurs aussi – et alors que les cabinets d’avocats renouvellent leur assurance responsabilité professionnelle, les répercussions sont impossibles à ignorer.

« Je n’arrivais pas à croire le nombre de questions sur le formulaire de renouvellement cette année concernant l’utilisation de l’IA, » a déclaré un propriétaire de cabinet à la Gazette. « Ils voulaient connaître les politiques, les plans de risque et ce que le personnel en faisait. Je ne suis pas sûr d’avoir toutes les bonnes réponses. »

L’IA comme élément clé de l’évaluation des risques

Les assureurs et les professionnels de la conformité s’accordent à dire que l’IA est désormais un élément important pour évaluer le profil de risque d’un cabinet. Mais la profession a-t-elle vraiment compris qu’il s’agit d’un sujet devant être géré et supervisé ?

Au cours de l’année dernière, le juge de la Haute Cour, M. Justice Ritchie, a déclaré que les avocats impliqués dans le déploiement de fausses citations judiciaires avaient démontré « un comportement professionnel épouvantable ». Le mois dernier, deux avocats spécialisés en immigration ont été référés à l’Autorité de régulation des avocats pour avoir apparemment utilisé l’IA générative pour créer des affaires non pertinentes ou fausses. L’un d’eux a également admis avoir mis des e-mails du Home Office contenant des détails clients dans ChatGPT pour essayer de les expliquer.

Des résultats préoccupants pour les assureurs

Lors de la conférence sur les risques et la conformité de la Law Society cette semaine, un sondage a révélé que 14 % des délégués étaient d’accord pour dire que l’IA était « autorisée mais largement non gérée ». Dans une autre session discutant de la responsabilité de la gestion de l’utilisation de l’IA, près de la moitié a déclaré que cela relevait des professionnels, tandis que seulement 24 % pensaient que c’était le rôle du partenaire superviseur ou gestionnaire.

Arjun Rohilla, vice-président senior du courtier Paragon, a déclaré que les résultats seraient « effrayants » pour les assureurs en assurance responsabilité professionnelle (PII).

Que doivent déclarer les cabinets d’avocats sur leur politique d’IA ?

Marc Rowson, partenaire chez le courtier d’assurances Lockton, a souligné que les souscripteurs ne cherchent pas à piéger les cabinets d’avocats ou à les effrayer en posant davantage de questions. « L’un des plus grands mythes est que les assureurs sont préoccupés par l’utilisation de l’IA par les cabinets, » a-t-il déclaré. « La grande majorité est enthousiasmée par cela et souhaite que les cabinets l’adoptent. »

Cependant, les assureurs souhaitent connaître trois éléments, selon Rowson : l’exactitude du travail effectué, la sécurité des données et les précautions. « Ils veulent voir où se trouve l’élément humain de vérification et de sécurité. »

Les attentes des assureurs et l’avenir de l’IA

Le SRA devrait publier de nouvelles directives sur l’utilisation sûre et conforme de l’IA dans les semaines à venir. Cela devrait aider à clarifier les règles concernant les outils génératifs, mais aussi préciser que la confidentialité des clients et le consentement des clients restent des non-négociables. L’utilisation de l’IA ne dégage pas les avocats de leur responsabilité de maintenir ces éléments ; les cabinets restent pleinement responsables de la qualité, de l’exactitude et de l’adéquation des services qu’ils fournissent.

« L’IA devrait être considérée comme un outil pour soutenir le jugement professionnel, pas comme un remplacement, » a déclaré Olivier Roth, responsable des politiques de l’SRA spécialisé dans l’IA et la technologie, lors d’un webinaire récent.

Pour l’instant, les experts affirment que la clé pour satisfaire les assureurs est de bien établir les fondamentaux et d’avoir une clarté sur la façon dont les risques sont gérés.

Eloise Butterworth, responsable des risques et de la conformité chez la société de conseil HiveRisk, a déclaré que certains cabinets peuvent se laisser emporter par l’innovation sans d’abord mettre en place un cadre de risque efficace et robuste.

« Les éléments de base que les assureurs veulent savoir : avez-vous une politique d’IA et le COLP a-t-il eu son mot à dire à ce sujet d’un point de vue réglementaire ? » a-t-elle ajouté. « L’utilisation de l’IA ne devrait pas être uniquement l’affaire de l’équipe informatique et des équipes d’innovation – cela devrait figurer clairement à l’ordre du jour de l’équipe des risques. »

Plus important encore que d’avoir une politique – cette politique d’IA est-elle efficace ? Que dit-elle et quels contrôles sont en place pour prévenir une utilisation non autorisée ? Les assureurs devraient être plus préoccupés par les cabinets qui l’interdisent ou ne l’utilisent pas, car en réalité, cela signifie simplement que leur personnel agit sans garde-fous.

Scroll to Top