Comment les investisseurs activistes pourraient transformer l’utilisation de l’IA en un test de gouvernance
Les investisseurs activistes commencent à porter un regard critique sur l’utilisation de l’IA par les conseils d’administration, tout comme ils le font pour les questions d’ESG (environnementales, sociales et de gouvernance) et de cybersécurité. Selon des experts, la question centrale n’est pas seulement l’efficacité, mais l’efficacité fiduciaire.
La transparence et l’utilisation des outils d’IA
Les exigences de transparence concernant l’IA se concentreront sur la capacité des administrateurs à utiliser pleinement les outils disponibles pour remplir leurs obligations. Avec les outils d’IA, il devient plus facile de collecter des données, de faire des comparaisons, de réaliser des recherches et de procéder à des analyses de scénarios.
Les conseils d’administration seront jugés sur leur compréhension de l’impact de l’IA sur l’entreprise, y compris les chaînes d’approvisionnement, les produits et la stratégie de marché. Ainsi, il est essentiel d’atteindre un niveau de littératie en IA pour participer à ces conversations.
Risques liés à l’utilisation de l’IA
De nombreux administrateurs utilisent déjà des outils d’IA sans directives formelles, créant ainsi des risques de gouvernance et de confidentialité. Des recherches montrent que 66 % des administrateurs introduisent des documents de conseil dans des outils d’IA open-source pour résumer et extraire des informations, alors que seulement 20 % ont des politiques d’utilisation de l’IA.
Ces lacunes exposent les entreprises à des risques autour de la confidentialité et du secret professionnel.
Les implications juridiques de l’inaction
Il est possible qu’un conseil d’administration qui ne utilise pas l’IA soit considéré comme en violation de son obligation fiduciaire. Si un conseil ne parvient pas à utiliser l’IA, ne respecte pas les objectifs fixés et fait perdre de la valeur aux actionnaires, cela pourrait devenir un enjeu dans des litiges avec ces derniers.
Documentation et éducation sur l’IA
Les conseils d’administration doivent également réfléchir à la manière de documenter la supervision de l’IA. La supervision doit être visible dans les documents de conseil, les rapports et les procès-verbaux, intégrant l’IA dans les discussions sur la stratégie, le personnel et le risque.
L’éducation sur l’IA devrait faire partie intégrante du développement continu des conseils.
La culture organisationnelle et l’adoption de l’IA
La culture d’une organisation peut représenter un obstacle majeur à l’adoption de l’IA. Les craintes liées à la sécurité, au remplacement et à l’échec peuvent freiner l’expérimentation. Dans les organisations où l’échec est accepté, l’adoption de l’IA est plus facile.
À mesure que les conseils, les investisseurs et les régulateurs recalibrent leurs attentes, la question ne sera peut-être plus de savoir si les directeurs peuvent utiliser l’IA, mais s’ils peuvent justifier de ne pas l’utiliser.
