Transparence et responsabilité : l’urgent besoin d’une gouvernance éthique de l’IA

Avec le blocage de la responsabilité de l’IA, les conseils d’administration doivent pousser les géants de la technologie vers une plus grande transparence

Le 3 février – L’investissement mondial dans les technologies de l’intelligence artificielle (IA) devrait dépasser 500 milliards de dollars cette année, et une poignée de géants de la technologie détient désormais plus de 60% de l’infrastructure cloud mondiale et de la puissance de traitement des données, moteurs d’une nouvelle ère de transformation économique.

Des systèmes de santé et des réseaux financiers aux services gouvernementaux et aux chaînes d’approvisionnement alimentaire, l’IA devient la colonne vertébrale des opérations fondamentales. Son intégration aura des effets en cascade à travers les industries, façonnant la manière dont les sociétés fonctionnent et ayant un impact déterminant sur le succès – ou le dysfonctionnement – de l’économie de demain.

Toute organisation qui développe, acquiert ou déploie ces systèmes détient le pouvoir de façonner les risques et les droits en aval. Les choix que des entreprises technologiques telles qu’Amazon, Meta et Microsoft font aujourd’hui dans le déploiement et la gouvernance de l’IA détermineront si cette transformation renforce la résilience et la confiance – ou amplifie les risques et les inégalités.

Les risques d’un déploiement irresponsable de l’IA

Lorsqu’un produit d’IA est déployé sans des principes robustes tels que la transparence, la responsabilité et le respect des droits humains, le résultat peut être la circulation de contenus nuisibles, entraînant une réaction réglementaire. Par exemple, des gouvernements au Royaume-Uni, en Indonésie, en Malaisie et ailleurs ont critiqué X pour son incapacité à prévenir la production massive d’images générées par IA sexualisées de femmes et d’enfants utilisant son chatbot Grok. La transparence de X en matière d’IA est à la traîne par rapport à celle de nombreux pairs, créant un vide politique qui risque d’éroder davantage la confiance dans sa plateforme phare.

Analyse du World Benchmarking Alliance (WBA)

Le World Benchmarking Alliance (WBA) a récemment annoncé de nouvelles données sur l’IA éthique suite à son analyse de 200 grandes entreprises technologiques, dans le cadre de son analyse plus large de 2 000 entreprises les plus influentes dans tous les secteurs.

Une statistique a particulièrement retenu l’attention : parmi les 200 entreprises technologiques évaluées, seulement 38% d’entre elles publient des principes d’IA éthique. Pourtant, aucune entreprise n’a divulgué de résultats complets d’évaluations d’impact sur les droits humains (HRIAs) pour les systèmes d’IA qu’elles construisent, achètent ou utilisent. Cet écart entre promesses et pratiques est inquiétant au moment où l’empreinte et le profil de risque de l’IA s’étendent.

De plus, nos résultats montrent que la transparence de haut niveau concernant l’IA, telle que la divulgation publique des principes d’IA, est en ralentissement. Seules neuf entreprises (4,5%) ont signalé pour la première fois leurs principes d’IA en 2025, contre 19 en 2024.

La nécessité d’une transparence accrue

La plupart des géants de la technologie sont encore loin de remplir même des critères fondamentaux et réalisables. Environ 19% des entreprises technologiques évaluées se sont engagées envers des cadres régionaux ou internationaux d’IA (38 entreprises) ou ont intégré le respect des droits humains dans leurs principes (41). À peine plus de 10% ont expliqué leurs mécanismes internes de gouvernance de l’IA.

Cependant, il y a un rayon d’espoir. Comparé à 2023, beaucoup plus d’entreprises reconnaissent maintenant l’IA comme un risque matériel, signalant un changement de l’hypothèse pure vers la reconnaissance des impacts réels de l’IA.

Par exemple, NEC a élevé le respect des droits humains dans l’IA au rang de priorité de durabilité principale, LG Electronics a publié des rapports de responsabilité dédiés à l’IA, et Salesforce a lié l’IA à la durabilité environnementale. Le dernier Ranking Digital Rights Index (RDR Index) a également trouvé que de grandes entreprises technologiques adoptent de nouvelles politiques détaillées pour guider leur gouvernance algorithmique et améliorer la transparence globale.

Les défis à relever

Bien qu’il existe des tendances positives, de grandes entreprises influentes comme ASML, Oracle, SK Hynix et TSMC, ainsi que des plateformes utilisées par des millions de personnes chaque jour, comme Spotify ou Uber, n’ont toujours pas de principes d’IA publics. De plus, certaines de ces entreprises ont été systématiquement non réactives aux efforts des investisseurs pour s’engager avec elles sur leurs pratiques en matière d’IA, comme l’a révélé le WBA le mois dernier dans un rapport sur sa Coalition d’Impact Collectif pour une IA Éthique.

La publication de principes d’IA de haut niveau n’est que la première étape vers l’amélioration des résultats en matière de droits humains. Sans divulgations plus robustes et une adhésion à travers les industries, même cette action initiale risque de devenir paralysée avant de devenir la norme. Les entreprises qui sont en avance devraient prioriser le renforcement et l’explication claire de leurs processus d’évaluation d’impact, surtout que l’utilisation et le développement de certains systèmes d’IA nécessiteront des évaluations obligatoires dans l’UE cette année.

Le temps presse

Le chronomètre réglementaire tourne également. En Europe, les obligations de transparence et d’évaluations d’impact liées aux droits humains entreront en vigueur selon un calendrier échelonné sous la loi sur l’IA de l’UE, l’évaluation des droits fondamentaux pour les systèmes d’IA à haut risque entrant en vigueur le 2 août cette année. En bref : ce qui est volontaire aujourd’hui sera obligatoire demain.

Nous atteignons un point critique pour la transparence de l’IA alors que la technologie domine les infrastructures essentielles. La voie à suivre n’est pas un autre engagement, mais un passage des principes à la preuve, comme des HRIAs rigoureuses, des résultats publics et des améliorations mesurables dans les systèmes et les résultats.

Ce changement réduira les risques réputationnels et réglementaires et accélérera le délai de valorisation des investissements en IA en clarifiant où des garde-fous sont nécessaires. Les conseils d’administration qui s’attendent à ce que l’IA stimule la croissance doivent insister sur la gouvernance qui la soutient. Sinon, laisser la responsabilité stagner alors que la technologie domine est un risque que nul leader d’entreprise ne devrait accepter.

Scroll to Top