Problème de gouvernance de l’IA
L’intelligence artificielle (IA) façonne déjà des décisions réelles qui affectent les individus. Elle influence la suppression de contenu en ligne, la signalisation des comportements nuisibles et la gestion des risques par les agences publiques.
Dans de nombreux contextes, l’IA n’est plus un simple sujet de test en arrière-plan. Elle fait déjà partie intégrante du fonctionnement des plateformes et des institutions.
Une question de gouvernance
Pendant des années, l’IA responsable a été discutée principalement comme un problème éthique. Nous avons évoqué la justice, le biais, la transparence et les valeurs. Ces conversations étaient importantes, et elles le restent.
Cependant, de nombreux échecs de l’IA que nous observons aujourd’hui ne sont pas causés uniquement par des désaccords éthiques ou des défauts techniques. Ils surviennent parce que la responsabilité est floue, la supervision est faible et l’autorité décisionnelle est répartie entre trop de parties.
En d’autres termes, l’IA est devenue un problème de gouvernance.
Lors des échecs des systèmes d’IA, la gouvernance échoue souvent en premier
Dans de nombreux pays aujourd’hui, l’IA est utilisée pour gérer l’échelle. Les plateformes de médias sociaux s’appuient sur des systèmes automatisés pour traiter des millions de publications chaque jour. Les agences publiques utilisent des outils d’IA pour prioriser les cas, surveiller les dommages en ligne et soutenir le travail d’application.
Quand quelque chose tourne mal, la première question posée est souvent de savoir si le modèle était suffisamment précis. Cette question néglige le problème plus profond. Dans de nombreux cas, la technologie aurait pu mieux fonctionner, mais la gouvernance environnante a échoué.
Les lacunes de gouvernance courantes incluent :
- Pas de propriétaire clair pour un système d’IA
- Supervision limitée avant le déploiement
- Escalade faible lorsque des dommages commencent à apparaître
- Responsabilité partagée entre ceux qui construisent les systèmes, ceux qui les déploient et ceux qui sont censés les réguler
Ces lacunes sont bien reconnues dans les discussions internationales sur la responsabilité de l’IA, y compris dans les travaux de l’OCDE et de l’Alliance pour la gouvernance de l’IA du WEF.
Leçons tirées des dommages en ligne et de la modération de contenu
De nombreux défis ont été discutés dans un récent podcast sur le discours de haine, les deepfakes et la sécurité en ligne, où des chercheurs et des régulateurs ont parlé ouvertement des limites de l’IA et de la régulation en pratique.
Un message était clair : les outils de modération de l’IA existent déjà et sont largement utilisés. L’apprentissage automatique est essentiel comme premier filtre pour le contenu nuisible. Le problème plus difficile réside dans la manière dont ces outils sont gouvernés.
La modération de contenu fonctionne généralement en couches :
- Les systèmes automatisés signalent les dommages potentiels
- Des modérateurs humains examinent les cas complexes ou contestés
- Les régulateurs interviennent lorsque les plateformes échouent à agir
Les ruptures se produisent lorsque l’un ou plusieurs de ces niveaux manquent de responsabilité. Les plateformes peuvent sous-investir dans le contexte linguistique et culturel local. La supervision peut s’appuyer sur des plaintes plutôt que sur la prévention. La responsabilité peut être transférée entre les entreprises qui construisent des systèmes, les plateformes qui les déploient et les autorités censées les superviser.
Dans des sociétés multilingues et culturellement diverses, ces faiblesses deviennent plus visibles. Le mélange de langues, l’argot et le contexte changent rapidement. Sans une gouvernance solide, même des systèmes d’IA capables ont du mal à suivre.
Où la responsabilité se dégrade
Comment la responsabilité est répartie autour des systèmes d’IA utilisés pour la sécurité en ligne et les services publics. Alors que les développeurs d’IA, les plateformes, les agences publiques et les régulateurs jouent tous un rôle dans la manière dont ces systèmes sont construits et déployés, les enfants et le grand public subissent les conséquences avec le moins de capacité d’influencer les décisions.
Ce réseau aide à expliquer pourquoi les dommages causés par l’IA ne résultent rarement d’un échec unique. Les systèmes d’IA sont développés par un groupe, déployés par un autre, supervisés à distance et vécus directement par le public.
Lorsque la propriété, la supervision et l’escalade ne sont pas clairement connectées, les dommages tombent dans les interstices entre les institutions.
La sécurité des enfants montre pourquoi la gouvernance est essentielle
Les risques sont particulièrement clairs lorsque des enfants sont impliqués. Les deepfakes générés par l’IA et les images synthétiques ont facilité la création d’abus en ligne et rendu leur détection plus difficile. L’UNICEF a averti que l’IA introduit de nouveaux risques pour les enfants qui ne peuvent pas être résolus uniquement par la technologie.
Un exemple récent illustre cela clairement. En janvier 2026, Grok, un chatbot lié à X, a fait l’objet d’un examen mondial après des rapports selon lesquels il pourrait être utilisé pour créer des images sexuelles non consensuelles, y compris des images sexualisées impliquant des mineurs. En Malaisie, un compte rendu détaillé de l’incident et des risques plus larges a été rapporté par Bernama.
Cela est important car cela montre à quelle vitesse les dommages peuvent passer d’outils de niche à des plateformes grand public. Une capacité qui aurait dû être bloquée à l’étape de conception peut se propager largement avant que les protections ne rattrapent. C’est un échec de gouvernance, pas seulement un échec de détection.
Les risques cachés de l’IA dans le secteur public
L’IA est également adoptée dans divers services publics, de l’éducation et du bien-être à l’application numérique et à la sécurité en ligne. Ces systèmes influencent des résultats réels pour des personnes réelles.
Lorsque l’IA du secteur public échoue, l’impact va au-delà de la performance technique. Il affecte la confiance dans les institutions.
Cependant, la gouvernance est souvent à la traîne de l’adoption. Les systèmes d’IA peuvent être introduits sans examen indépendant, sans responsabilité claire pour les résultats et sans moyens transparents pour les citoyens de contester les décisions. Quand quelque chose tourne mal, une question simple émerge :
Qui est responsable ?
Si les institutions ne peuvent pas répondre clairement à cette question, la confiance du public s’érode rapidement.
Ce à quoi ressemble une IA responsable en pratique
L’IA responsable ne signifie pas éviter l’IA. Cela signifie la gouverner correctement.
Dans la pratique, cela implique :
- Une propriété claire de chaque système d’IA
- Des rôles définis pour la supervision et l’examen
- Une documentation de la prise de décision et de l’évaluation des risques
- Un suivi continu de l’impact réel
- La capacité de suspendre ou de retirer des systèmes lorsque des dommages apparaissent
Il s’agit également de reconnaître que tous les risques ne peuvent pas être résolus par de meilleurs modèles. Les décisions concernant l’utilisation acceptable, l’escalade et l’application sont des décisions humaines. Elles nécessitent un leadership à un niveau senior et au niveau du conseil.
Dans de nombreuses juridictions, les attentes réglementaires évoluent déjà. Les lois sur la sécurité en ligne, les obligations des plateformes et les lignes directrices du secteur public signalent que l’IA responsable passe de principes volontaires à une gouvernance exécutoire.
De la discussion à la prise de décision
L’IA responsable est passée de la discussion à la prise de décision. Les questions clés ne sont plus abstraites :
- Qui possède le système ?
- Qui le supervise ?
- Qui agit lorsque des dommages commencent à apparaître ?
Les institutions qui ne peuvent pas répondre clairement à ces questions seront confrontées à des risques réglementaires, réputationnels et de confiance, peu importe à quel point leur technologie devient avancée.
Au fur et à mesure que l’IA devient plus intégrée à la vie publique, l’IA responsable doit être considérée comme une responsabilité de gouvernance essentielle. C’est ainsi que la confiance est bâtie, que les dommages sont réduits et que l’innovation peut se poursuivre d’une manière que la société est prête à accepter.
