Vers une gouvernance de l’IA : le processus d’Hiroshima comme point de convergence

Diverging paths to AI governance: how the Hiroshima AI Process offers common ground

Les approches de la gouvernance de l’IA varient actuellement considérablement à travers le monde, chacune reflétant des équilibres uniques entre innovation, confiance et autorité.

Les modèles de gouvernance de l’IA façonnés en dehors du Sud mondial pourraient orienter sa trajectoire technologique de manière à renforcer les fossés numériques existants.

Le Processus de l’IA d’Hiroshima au Japon favorise l’alignement international en offrant un cadre flexible qui peut connecter des systèmes nationaux divers et promouvoir l’interopérabilité.

Une nécessité de réglementation

Que vous fassiez défiler les réseaux sociaux, que vous demandiez un prêt hypothécaire ou que vous obteniez un diagnostic médical, l’intelligence artificielle (IA) façonne déjà vos choix quotidiens. Au-delà de la commodité quotidienne, l’IA transforme les économies, modifie l’influence mondiale et remet en question les règles de gouvernance existantes. La question réelle n’est pas de savoir s’il faut la réglementer, mais comment.

Les gouvernements du monde entier s’empressent de façonner les règles de l’IA, mais ils n’adoptent pas tous la même approche. Certains construisent des régimes complets basés sur les risques ; d’autres s’appuient sur une surveillance fondée sur des principes ou une coordination dirigée par l’État pour aligner l’innovation sur les priorités stratégiques. Chaque modèle reflète un équilibre distinct entre innovation et responsabilité, flexibilité et protection – et comprendre ces différences est essentiel pour trouver des domaines de coopération.

Des chemins divergents vers la gouvernance

Les gouvernements s’accordent de plus en plus à dire que l’IA doit être transparente, responsable et sûre – mais leurs chemins pour atteindre ces objectifs divergent.

La loi sur l’IA de l’UE priorise la gestion des risques, classifiant les systèmes par potentiel de préjudice et imposant des règles plus strictes sur ceux affectant les droits, la santé ou la sécurité. Le Royaume-Uni applique un modèle basé sur des principes, intégrant l’équité et la responsabilité parmi les régulateurs avec une flexibilité pour l’expérimentation. Les États-Unis, en revanche, suivent une approche axée sur le marché et la sécurité, combinant des cadres volontaires tels que le cadre de gestion des risques de l’IA du NIST avec des initiatives étatiques et fédérales. La Chine adopte un modèle directif mettant l’accent sur l’enregistrement, les examens de sécurité et la surveillance du contenu pour aligner l’innovation sur les objectifs nationaux et la stabilité sociale.

Chacune de ces approches reflète un équilibre distinct entre innovation, surveillance et confiance du public. Cependant, à mesure que ces logiques évoluent, elles exposent des défis plus profonds : comment garantir que la gouvernance suit le rythme de la technologie sans la contraindre – et comment traduire les priorités nationales en règles compatibles au niveau mondial.

Le Sud mondial et le nouveau fossé numérique

Cette question de convergence est particulièrement urgente pour le Sud mondial. À mesure que les cadres de gouvernance de l’IA mûrissent dans les économies avancées, de nombreux pays en développement risquent d’être façonnés par des normes externes plutôt que de définir les leurs. Bien que la transformation numérique offre un potentiel vaste pour une croissance inclusive, les lacunes persistantes en matière d’accès aux données, d’infrastructure et de compétences menacent d’élargir les inégalités.

L’influence dans l’économie numérique reste concentrée entre les mains de quelques acteurs qui fixent les normes techniques, gouvernent les flux de données et façonnent les normes de développement de l’IA. Leurs avantages en matière de puissance de calcul, de données propriétaires et de capacité de recherche ont conduit à une efficacité mondiale – mais souvent au détriment de l’adaptabilité locale et de l’agence. À mesure que les grandes puissances rivalisent, les petites économies risquent d’être absorbées dans des systèmes réglementaires et technologiques qui ne reflètent que partiellement leurs priorités linguistiques, sociales et de développement.

Pour combler ce fossé, il faut plus qu’un investissement ; cela nécessite une agence et une coordination. Renforcer l’infrastructure, les compétences et les écosystèmes de recherche, ainsi que la coopération régionale, peut aider les pays à passer d’adoptants de technologies à contributeurs actifs. En participant à l’établissement de normes et en faisant progresser une gouvernance sensible au contexte, les économies en développement peuvent garantir que l’ère de l’IA reflète une pluralité plus riche de voix, de valeurs et de visions.

Coopération en action : le Processus de l’IA d’Hiroshima

Alors que les approches mondiales de la gouvernance de l’IA divergent et que les capacités restent inégales, de nouvelles initiatives émergent pour combler ces fossés. Le Processus de l’IA d’Hiroshima, lancé lors de la présidence du G7 du Japon en 2023, introduit un cadre complet composé des Principes directeurs internationaux du Processus d’Hiroshima, du Code de conduite international du Processus d’Hiroshima et d’un cadre de reporting volontaire pour les entreprises et les gouvernements.

Cela permet aux organisations de démontrer leur responsabilité et leur engagement envers des pratiques d’IA responsables, même en l’absence de réglementation contraignante. En promouvant la transparence, il offre un mécanisme pratique pour que les grandes entreprises communiquent sur la manière dont elles gèrent les risques liés à l’IA et s’alignent sur les attentes mondiales.

S’appuyant sur cette base, le World Economic Forum a élaboré le Playbook pour promouvoir une innovation responsable en matière d’IA, montrant comment un tel reporting volontaire peut transformer la transparence en moteur de confiance, de compétitivité et de valeur réputationnelle. Le Processus de l’IA d’Hiroshima illustre ainsi ce que l’étude intitulée Le Processus de l’IA d’Hiroshima : une troisième voie dans la gouvernance mondiale de l’IA décrit comme une approche « troisième voie » fondée sur le droit doux, mettant l’accent sur la gestion et l’ouverture plutôt que sur une application stricte.

De plus, le processus offre une voie flexible pour les pays encore en train de développer des institutions liées à l’IA afin de s’aligner sur des principes communs avant la réglementation formelle. Son influence continue de croître à travers le Groupe d’amis du Processus de l’IA d’Hiroshima, qui s’étend sur plus de 50 pays et régions. Dans l’ASEAN, par exemple, les discussions lors du Dialogue des parties prenantes sur l’IA 2025 du Forum économique mondial à Kuala Lumpur ont souligné comment le processus soutient la Feuille de route responsable de l’IA de l’ASEAN – contribuant à harmoniser la gouvernance, à permettre des flux de données de confiance et à tester en toute sécurité l’innovation à travers des bacs à sable réglementaires.

Les décideurs s’accordent de plus en plus à dire que l’IA doit être transparente, responsable et alignée sur le bien-être humain. Les voies diffèrent, mais l’objectif est partagé : construire un écosystème de confiance où innovation et responsabilité se renforcent mutuellement.

Le Processus de l’IA d’Hiroshima offre quelque chose de nouveau : un tissu collaboratif qui connecte ces systèmes à travers la transparence partagée et la coopération. Il ne remplace pas les stratégies nationales ou les régimes juridiques, mais aide à créer les conditions pour qu’ils coexistent et évoluent ensemble.

Si les décideurs, les entreprises et les organismes de normalisation continuent de peaufiner cette couche d’interopérabilité vivante, l’expérience du droit doux d’Hiroshima pourrait évoluer pour devenir l’épine dorsale d’une gouvernance de l’IA pratique, digne de confiance et mondialement inclusive.

Scroll to Top