Qui possède la gouvernance et le risque de l’IA ?
Lorsque une décision pilotée par l’IA produit un résultat que personne ne se sent à l’aise de défendre, quelque chose de révélateur se produit au sein des organisations. Les conversations se déplacent rapidement de ce que le système a recommandé vers qui a approuvé cette décision, qui s’y est fié, et qui est finalement responsable des conséquences.
À ce moment-là, la technologie s’efface en arrière-plan et les questions de propriété passent au premier plan.
Impact de l’IA sur la responsabilité
À mesure que les systèmes d’IA commencent à influencer les décisions de crédit, les interactions avec les clients, les choix de recrutement et les priorités opérationnelles, ils redéfinissent discrètement comment la responsabilité est répartie. Les décisions portent toujours des conséquences, mais la chaîne de responsabilité n’est plus évidente. Lorsque les résultats sont positifs, l’IA est créditée d’efficacité et d’insight. En revanche, lorsque ce n’est pas le cas, il devient plus difficile de localiser la responsabilité.
Dans de nombreuses organisations, cette ambiguïté n’est pas accidentelle. Les initiatives d’IA sont souvent introduites comme des améliorations techniques plutôt que comme des systèmes organisationnels. La responsabilité est éparpillée entre les équipes informatiques, les fournisseurs externes, les unités commerciales et les fonctions de conformité, sans qu’aucun groupe ne soit clairement responsable des résultats. Pendant un certain temps, cela a fonctionné. Les premiers résultats semblent prometteurs, et les questions difficiles peuvent être reportées. Les recherches et notre expérience suggèrent que c’est précisément là que le risque s’accumule.
Analyse des échecs de gouvernance
Une récente revue systématique de la recherche sur la gouvernance de l’IA, publiée dans le journal AI and Ethics, a examiné comment les organisations assignent la responsabilité des décisions et des risques liés à l’IA. Les auteurs ont constaté un schéma récurrent à travers les industries et les régions : les échecs de gouvernance ne proviennent que rarement d’algorithmes défectueux. Au contraire, ils émergent parce que la propriété de la prise de décision et du risque n’est pas claire. Les responsabilités sont fragmentées, les chemins d’escalade sont faibles, et les mécanismes de gouvernance sont souvent introduits seulement après qu’un problème se soit produit. Les organisations adoptent en effet l’IA plus rapidement qu’elles ne décident qui est responsable de ses conséquences.
Vers une gouvernance responsable
Il est essentiel de ne pas devenir trop sceptique à propos de la gouvernance de l’IA et de souligner que celle-ci ne freine pas l’innovation. Les organisations qui définissent la propriété dès le début sont mieux à même de développer l’IA avec confiance. Elles savent qui peut intervenir, comment les risques sont identifiés, et comment l’apprentissage se produit lorsque les systèmes échouent ou sont contournés. La gouvernance devient un facilitateur de performance, et non une contrainte.
