Gouverner l’IA au-delà des frontières : pourquoi la provenance exige une coopération mondiale
La question de la provenance de l’IA se situe à un carrefour critique entre les droits fondamentaux et la gouvernance des technologies émergentes. Vérifier les origines des données d’entraînement de l’IA et du contenu généré implique directement les protections constitutionnelles pour la liberté d’expression et la lutte contre la désinformation.
Alors que le contenu synthétique transcende les frontières nationales et érode la confiance dans le discours démocratique, ces défis exigent de nouveaux cadres qui harmonisent les normes internationales tout en respectant la souveraineté des États. Les enjeux ne se limitent pas à la vérification technique, mais touchent à la préservation des droits humains et à l’intégrité des systèmes de droit public.
Cas d’étude : Désinformation numérique
Des incidents récents illustrent l’urgence de la gouvernance internationale. Par exemple, lors de la fuite de Marianna Vyshemirsky d’un hôpital de maternité bombardé à Marioupol en 2022, des responsables russes ont utilisé le scepticisme numérique pour discréditer les preuves de ses blessures, suggérant qu’un “acteur” avait mis en scène les blessures. De même, des images générées par l’IA montrant des immigrants supposément en train de manger des animaux de compagnie en Ohio ont déclenché des menaces de bombe, mettant en danger des immigrants haïtiens.
La crise d’authentification
Des recherches montrent que les consommateurs identifient correctement le contenu généré par l’IA seulement 50% du temps, ce qui constitue un risque d’authentification qui affecte les démocraties à l’échelle mondiale. Ce phénomène, connu sous le nom de dividende du menteur, permet aux acteurs malveillants de rejeter des preuves authentiques en prétendant qu’elles ont été produites par des systèmes d’IA.
Les limites des solutions nationales
Des initiatives comme la California AI Transparency Act et l’AI Act de l’Union Européenne représentent des avancées significatives en matière de réglementation domestique. Cependant, ces approches nationales divergentes soulèvent trois problèmes critiques qui ne peuvent être résolus que par une coordination internationale.
Problèmes critiques
Premièrement, le contenu synthétique circule à l’échelle mondiale, rendant les exigences nationales d’authentification inefficaces. Deuxièmement, les réglementations fragmentées imposent des charges de conformité impossibles aux développeurs d’IA opérant à l’international, ce qui désavantage particulièrement les petites entreprises. Enfin, des normes nationales divergentes créent des opportunités pour l’arbitrage réglementaire.
Construire sur des institutions internationales existantes
Plutôt que de créer de nouvelles structures bureaucratiques, une gouvernance internationale efficace de l’IA devrait tirer parti des cadres institutionnels existants. Par exemple, l’Organisation mondiale du commerce pourrait harmoniser les normes techniques pour l’IA en élargissant son cadre des barrières techniques au commerce.
Progrès récents et lacunes restantes
Des sommets internationaux récents ont marqué des avancées vers des stratégies de mise en œuvre orientées vers l’action. Cependant, des lacunes subsistent, notamment le manque d’attention portée aux données d’entraînement et aux pratiques de travail des labelleurs de données, souvent sous-payés et négligés.
Mécanismes de mise en œuvre et d’application
Pour traduire des principes larges en actions concrètes, un cadre de cohérence réglementaire est proposé. Celui-ci permet de maintenir l’interopérabilité tout en respectant les contextes nationaux divers.
Prévenir l’inégalité technologique
La gouvernance internationale doit empêcher que les capacités de l’IA ne créent de nouvelles formes d’inégalité technologique. Cela nécessite un soutien ciblé aux nations en développement pour leur permettre de participer efficacement à l’écosystème mondial de l’IA.
Conclusion
La rapidité de l’évolution technologique nécessite des cadres de gouvernance capables de s’adapter à l’innovation continue. Le développement de normes robustes de provenance pour le contenu de l’IA est essentiel pour maintenir la confiance sociale au-delà des frontières. L’avenir dépendra de la capacité de la communauté internationale à traduire cette reconnaissance en cadres de gouvernance efficaces.
