Gouvernance de l’utilisation interne de l’intelligence artificielle – Considérations clés
De nombreuses études indiquent que plus de 70 % des entreprises utilisent l’intelligence artificielle (IA) en interne. Cela peut inclure le développement d’un outil d’action ou d’un chatbot orienté client pour apporter des gains d’efficacité à un flux de travail particulier. Dans d’autres cas, il s’agit d’utilisations plus générales par des employés d’outils d’IA largement disponibles.
Les menaces pour les droits juridiques établis
Dans de nombreux cas, l’utilisation d’outils d’IA nécessite que des informations soient transmises par l’utilisateur à un tiers pour traitement. Cette transmission de données en dehors d’une organisation peut être en désaccord avec les meilleures pratiques traditionnelles pour préserver la confidentialité des informations et les exigences légales visant à maintenir des droits précieux.
Par exemple, pour breveter une technologie, il est requis que l’idée n’ait pas été divulguée publiquement auparavant. Par conséquent, la transmission d’informations confidentielles à un outil d’IA externe pourrait compromettre la brevetabilité d’une idée. Il est donc essentiel de contrôler soigneusement les informations fournies à tout outil d’IA externe, y compris les assistants de recherche, les chatbots conversationnels et les outils de prise de notes.
Les menaces pour la sécurité des informations personnelles
Il existe une inquiétude croissante concernant les failles de sécurité qui surgissent lors de l’introduction de technologies non testées dans un écosystème informatique existant. Sans protections fortes, il peut être possible pour des acteurs malveillants d’accéder aux systèmes où le traitement d’un nouvel outil d’IA est connecté à Internet.
La fourniture de certaines informations, telles que les données personnelles, peut constituer une violation des lois régissant l’utilisation et la divulgation de ces informations. Il est à prévoir que les réglementations concernant l’utilisation des informations personnelles avec des outils d’IA vont s’étendre au niveau fédéral et provincial.
La nécessité de transparence et de supervision humaine
Bien que les cadres réglementaires autour de l’IA continuent de se développer, un élément commun dans les discussions politiques est l’importance de la transparence. Les entreprises doivent respecter toutes les exigences de divulgation associées à leur utilisation des systèmes d’IA.
Il existe également des rapports sur des entreprises produisant des rapports « hallucinés » pour les clients, où les données sous-jacentes ne reposent pas sur de véritables informations. Pour éviter les risques juridiques associés à ces hallucinations, les entreprises doivent garantir une supervision humaine appropriée lors de l’utilisation des outils d’IA.
La nécessité de responsabilité et de gouvernance au niveau du conseil
Bien que l’IA présente de nombreuses opportunités passionnantes, ses risques doivent être gérés avec soin. Les entreprises devraient adopter une politique de gouvernance de l’IA qui fournit un cadre continu pour la surveillance de cette technologie en rapide évolution.
Les entreprises doivent également comprendre les restrictions contractuelles concernant l’utilisation de l’IA et s’assurer que ces applications ne sont pas incompatibles avec l’utilisation d’outils d’IA.
En conclusion, les outils d’IA offrent aux utilisateurs la possibilité de réaliser des gains d’efficacité significatifs. Cet article ne suggère pas que leur utilisation entraînera inévitablement des problèmes importants, mais souligne les risques associés et les approches de gouvernance qui peuvent aider à les gérer.
