Les risques de responsabilité des dirigeants liés à la gouvernance de l’IA

Les échecs de la gouvernance de l’IA deviennent un risque de responsabilité pour les dirigeants et administrateurs

La gouvernance de l’IA n’est plus un problème théorique réservé aux salles de conseil. Alors que les régulateurs passent de l’orientation à l’exécution, une surveillance insuffisante de l’intelligence artificielle devient rapidement un risque de responsabilité pour les dirigeants et administrateurs, avec des implications sur la valorisation, la divulgation et la confiance des investisseurs.

Une évolution marquée par des actions réglementaires

Ce changement est souligné par des actions réglementaires récentes contre X concernant son chatbot Grok AI. Les autorités françaises ont perquisitionné des bureaux liés à la plateforme, tandis que les régulateurs britanniques ont ouvert de nouvelles enquêtes sur son utilisation des données et le contrôle du contenu. Bien que les enquêtes se concentrent sur la technologie et la conformité, l’exposition qu’elles créent atteint de plus en plus le niveau des conseils d’administration.

Un risque omniprésent

Le responsable de la gouvernance et des risques internationaux a déclaré que la gouvernance de l’IA devrait déjà être perçue à travers le prisme de la responsabilité des dirigeants et administrateurs. “La gouvernance de l’IA est toujours un risque pour les dirigeants et administrateurs, tout comme la gouvernance de quoi que ce soit d’autre,” a-t-il affirmé. “Même si vous avez une exclusion pour un certain type d’activité, les polices de responsabilité des dirigeants et administrateurs prennent, par nature, en compte le risque de gouvernance.”

Valeur immatérielle et évaluations fragiles

Le défi de la gouvernance est amplifié par la dépendance croissante des valorisations des entreprises modernes à des actifs immatériels, en particulier les données, la propriété intellectuelle et la réputation. “Environ 90 % de la valeur des actifs des entreprises du S&P 500 est immatérielle,” a-t-il ajouté. “Si cela concerne la réputation ou la recherche et le développement, un problème peut effacer cette valeur du jour au lendemain.”

Pression accrue sur la gouvernance

La quantité d’investissement dans l’IA crée elle-même une exposition pour les dirigeants. “Les six plus grandes entreprises du S&P 500 investissent massivement dans l’IA,” a-t-il noté. Une grande partie de cet investissement passe par des fournisseurs tels que Nvidia, qui a bénéficié d’être le principal fournisseur de puces IA.

AI-washing et effondrement de Builder.ai

Le risque pour les dirigeants devient plus aigu lorsque les entreprises exagèrent leurs capacités en matière d’IA pour stimuler leur valorisation, une pratique souvent désignée par le terme AI-washing. L’exemple de Builder.ai, qui a levé environ 445 millions de dollars en capital-risque avant de devenir insolvable, illustre ce point. “La valorisation était basée sur les capacités de l’IA, mais l’IA n’existait pas réellement,” a-t-il expliqué.

Réglementation fragmentée

La fragmentation des réglementations mondiales aggrave encore le risque pour les dirigeants. “Les États-Unis et l’UE régulent l’IA de manière différente,” a-t-il averti. Pour les entreprises opérant à l’international, gérer et communiquer la conformité à travers plusieurs juridictions sera crucial.

Prudence croissante en matière de souscription

Malgré les discussions autour des risques de l’IA, ceux-ci n’ont pas encore été pleinement intégrés dans la souscription d’assurance. “C’est un risque énorme pour la plupart des classes d’assurance et des entreprises en général,” a-t-il conclu. La prudence augmente, en particulier pour les entreprises en phase de démarrage qui se positionnent comme axées sur l’IA.

Les signes avant-coureurs deviennent de plus en plus difficiles à ignorer. La gouvernance de l’IA est désormais une exposition actuelle en salle de conseil avec un potentiel de réclamations réel.

Scroll to Top