La gouvernance de l’IA à travers les compétences humaines
L’histoire de l’informatique d’entreprise est, en termes généraux, une histoire de tensions dialectiques entre le centre et la périphérie, en particulier entre la centralisation et la décentralisation. Entre ceux qui contrôlent l’infrastructure et ceux qui doivent l’utiliser pour produire de la valeur.
Si, au cours des dernières années, nous avons appris à vivre avec le Shadow IT, c’est-à-dire l’utilisation de logiciels et de dispositifs mobiles dans l’ombre des responsables technologiques, aujourd’hui nous sommes confrontés à une mutation encore plus insidieuse et complexe : le Shadow AI.
Les risques du Shadow AI
Nous assistons à un phénomène où l’intelligence artificielle générative, accessible à quiconque disposant d’un navigateur, est utilisée pour effectuer des tâches critiques sans la connaissance de l’organisation. La déduction logique est simple : si l’accès à la puissance de calcul est devenu sans friction, alors le contrôle centralisé traditionnel n’est plus un frein suffisant.
Ceux qui utilisent l’IA de cette manière ne le font pas avec une intention malveillante, mais suivent plutôt un principe d’efficacité économique individuelle. Ils cherchent à maximiser leur productivité en comblant le fossé entre la demande de vitesse imposée par le marché et la réponse souvent lente des processus internes. Malheureusement, ce faisant, ils ignorent les risques qu’ils encourent.
Lorsque nous prenons ces outils dans l’ombre, c’est-à-dire en dehors du périmètre de la gouvernance d’entreprise, nous exposons l’organisation à trois risques existentiels qui ne peuvent être ignorés.
1. La souveraineté des données
Mettre des données confidentielles dans une invite de modèle public équivaut, dans de nombreux cas, à remettre ces données au fournisseur du modèle pour une formation future. C’est une perte silencieuse et continue de propriété intellectuelle, mettant ainsi en péril le cœur de l’activité de l’entreprise.
2. La machine ne pense pas
Il est crucial de se rappeler que la machine calcule, mais ne pense pas. Elle produit du contenu sans réaliser ce qu’elle fait. Dans l’ombre, des décisions stratégiques pourraient être prises sur la base d’inférences statistiques erronées, générées par une machine qui n’a pas une compréhension complète du contexte de ce qu’elle a produit. Si nous déléguons la pensée à la machine sans supervision, nous abdiquons notre responsabilité humaine.
3. La dette technique et légale cachée
Un code généré par une IA sans licence claire, ou un texte qui viole le droit d’auteur, entre dans les systèmes d’entreprise sans traçabilité. Lorsque viendra le temps de rendre des comptes sur ces actifs, l’entreprise se retrouvera face à des responsabilités qu’elle ne savait pas exister.
Vers une culture de l’IA
La prohibition et le blocage d’accès, comme l’histoire numérique nous l’enseigne, ne fonctionnent pas. La réponse n’a jamais été l’introduction de plus de technologie ; en fait, les meilleurs résultats sont atteints grâce à des innovations organisationnelles et, surtout, culturelles.
Nous devons déplacer l’axe du contrôle a priori inutile vers la compétence. Le Shadow AI prospère là où une culture de l’IA est absente. Si les employés utilisent des outils non approuvés, c’est souvent parce que l’entreprise n’a pas fourni d’alternatives viables et sûres.
Les entreprises devraient offrir des environnements sécurisés, des “sandbox”, où les modèles sont instanciés en privé, où les données ne quittent pas le périmètre de l’entreprise et où les résultats sont soumis à vérification.
Retour aux fondamentaux de la pensée critique
L’adoption de l’IA nécessite plus d’humanisme, pas moins. Nous devons former les gens non seulement à l’utilisation de l’outil (l’interface est désormais en langage naturel, accessible à tous), mais à l’évaluation des résultats. La compétence technique doit évoluer vers une compétence épistémologique : savoir distinguer une corrélation statistique d’un lien de causalité, reconnaître un biais, évaluer l’éthique d’un résultat.
Nous pouvons ainsi redéfinir le Shadow AI comme un signal de marché interne. Cela montre que la faim d’automatisation cognitive est immense. Le véritable défi pour les dirigeants est de faire passer l’IA de l’ombre à la lumière, où elle peut être gouvernée, mesurée et, surtout, dirigée par l’intention humaine.
Si nous revenons aux années 1970, où il n’y avait que des systèmes centralisés et un terminal, sans ordinateur personnel à portée de main, nous n’aurions certainement pas de risques de sécurité en périphérie, mais non plus de créativité et de responsabilité, qui, contrairement au calcul, ne peuvent pas être déléguées. Et la responsabilité est la seule réalité objective qui nous distingue, et nous distinguera toujours, des machines.
