Risques de gouvernance liés à l’adoption de l’IA sans littératie

Risques de gouvernance liés à l’adoption de l’IA sans littératie

Alors que les entreprises s’efforcent d’intégrer l’IA dans leurs opérations, le débat sur la gouvernance est bloqué au mauvais endroit. Les régulateurs délibèrent sur les mandats, les décideurs politiques débattent des garde-fous et les développeurs discutent des contrôles techniques. Bien que ces questions soient importantes, elles négligent le moteur le plus immédiat d’une gouvernance responsable de l’IA : les personnes utilisant ces systèmes chaque jour.

Sans investir dans les capacités de la main-d’œuvre, les organisations risquent d’intégrer des préjudices dans leurs opérations et de se retrouver responsables lorsque les choses tournent mal.

L’adoption de l’IA n’attend pas que la gouvernance rattrape son retard

Les entreprises intègrent des outils d’IA partout où elles le peuvent pour capturer des gains d’efficacité et de revenus, avec ou sans cadres de supervision en place. Des nouvelles récentes du Royaume-Uni illustrent cette tension entre gouvernance et innovation. La même semaine où le Comité du Trésor a averti que l’adoption ad hoc de l’IA par le secteur financier risquait de causer des “dommages graves” à la société et à l’économie, le groupe Lloyds Banking a annoncé que l’adoption de l’IA avait augmenté ses revenus de 50 millions de livres sterling (66,8 millions de dollars) en 2025.

Le risque de gouvernance, alors, ne réside pas seulement dans le fait que l’IA progresse rapidement. Ici, le risque provient également du fait que l’IA est intégrée dans des lieux de travail où les employés ne sont pas équipés pour comprendre ses limites, ses échecs ou ses implications en matière de conformité. Cet écart est là où de nouvelles préoccupations de gouvernance émergent.

Les risques de gouvernance de déploiement de l’IA sans littératie

La conséquence la plus prévisible d’une adoption mal gouvernée de l’IA est ce que les praticiens appellent “l’IA fantôme”. Sans formation formelle, les employés se tournent vers des outils de consommation non approuvés pour accomplir des tâches professionnelles, souvent sans divulgation. Au Royaume-Uni, 81 % des utilisateurs d’IA ne divulguent pas l’utilisation de l’IA à leurs managers. Des données sensibles de l’entreprise peuvent être saisies dans des modèles publics qui retiennent ou réutilisent les entrées pour un entraînement ultérieur, créant ainsi de nouveaux risques réglementaires et de réputation.

Le problème se complique lorsque les employés ne comprennent pas comment fonctionne réellement l’IA. Le personnel peut traiter l’IA comme un moteur de recherche basé sur des faits plutôt que comme un moteur de raisonnement basé sur des motifs, échouant ainsi à évaluer de manière critique l’exactitude de ses résultats. Prenons, par exemple, des cas largement rapportés d’avocats sanctionnés pour avoir soumis des “hallucinations” générées par l’IA dans des dépôts judiciaires. Lorsque les utilisateurs ne peuvent pas évaluer efficacement les résultats de l’IA, c’est leur employeur qui assume la responsabilité, sapant la confiance avec les clients et les régulateurs.

Le biais représente un autre front de gouvernance. Les systèmes d’IA héritent de motifs de leurs données d’entraînement. Si les employés échouent à reconnaître les résultats discriminatoires, ils risquent d’incorporer des biais systémiques dans les décisions opérationnelles. En 2021, cette question a été mise en avant aux États-Unis par des rapports indiquant que les systèmes de prêt automatisés rejetaient jusqu’à 80 % des demandes de prêt hypothécaire des candidats noirs. Des échecs similaires ont depuis émergé dans les algorithmes utilisés pour évaluer les demandes d’aide sociale et d’emploi.

D’un point de vue de gouvernance, cela crée des risques éthiques, juridiques et de réputation significatifs, sans parler des impacts plus larges sur les droits de l’homme et la justice sociale.

Même lorsque les préjudices ne se matérialisent pas, un déploiement sous-skilled limite le retour sur investissement. Les déploiements technologiques ne sont pas synonymes de transformation numérique. Sans flux de travail redessinés et employés formés, l’IA produit des gains de productivité fragmentés plutôt qu’un impact à l’échelle de l’entreprise.

Construire une gouvernance de bas en haut

En Europe, la dimension de la main-d’œuvre de la gouvernance est déjà reconnue. La loi européenne sur l’IA intègre la littératie de l’IA en tant qu’exigence légale pour le personnel interagissant avec les systèmes d’IA. En l’absence de réglementation équivalente aux États-Unis, les entreprises doivent mener cet effort elles-mêmes. Sur la base de notre expérience de conseil auprès d’organisations sur la gouvernance de l’IA, une approche crédible de bas en haut repose sur trois fondations interconnectées.

La première est la littératie de l’IA, différenciée par rôle. Pour les cadres, la littératie signifie savoir quelles questions poser : Comment surveillons-nous le biais ? Qui est responsable de la performance des modèles ? Quand la révision humaine prévaut-elle sur les résultats de l’IA ? Les dirigeants doivent être capables d’évaluer si l’IA est une réponse stratégiquement appropriée à un problème commercial, plutôt qu’une option pratique.

Pour les équipes techniques, la littératie de l’IA signifie une gouvernance des données responsable, une validation des modèles, une surveillance des performances et une documentation. Pour les utilisateurs finaux dans d’autres rôles, tels que les recruteurs utilisant des outils de présélection IA, les spécialistes du marketing rédigeant des campagnes assistées par l’IA ou les analystes utilisant l’IA générative comme assistants de recherche, la littératie est pratique et procédurale. Cela implique de comprendre les outils approuvés, de vérifier les résultats, de savoir comment faire remonter les préoccupations et d’appliquer le jugement humain.

Scroll to Top