Le fossé de la gouvernance : Pourquoi la réglementation de l’IA sera toujours à la traîne
L’innovation évolue à la vitesse de la machine, tandis que la gouvernance progresse à la vitesse humaine. À mesure que l’adoption de l’IA croît de manière exponentielle, la réglementation reste en retard, ce qui est assez typique dans le domaine technologique. À l’échelle mondiale, les gouvernements et autres entités s’efforcent de réglementer l’IA, mais les approches fragmentées et inégales abondent.
La nature du fossé : Innovation d’abord, supervision ensuite
Le retard réglementaire est un sous-produit inévitable du progrès technologique. Par exemple, Henry Ford ne développait pas la Model T en se concentrant principalement sur la sécurité routière. Les modèles réglementaires suivent historiquement l’innovation, comme en témoignent les exemples récents liés à la confidentialité des données, à la blockchain et aux médias sociaux. L’évolution rapide de l’IA dépasse la formation et l’application des politiques. En d’autres termes, la charrette a été placée devant le cheval depuis un certain temps.
Une partie du défi réside dans le fait que les décideurs politiques réagissent souvent aux dommages plutôt que d’anticiper les risques, créant ainsi des cycles de gouvernance réactive. Le problème n’est pas tant le retard lui-même, mais plutôt le manque de mécanismes d’adaptation pour suivre les nouveaux modèles de menaces, ainsi que le manque de volonté de compromettre un avantage concurrentiel pour des raisons de sécurité. C’est un scénario de « course vers le bas » ; nous érodons notre propre sécurité collective pour des gains locaux.
Un patchwork mondial de gouvernance de l’IA représentant des philosophies fragmentées
Les principales approches de gouvernance de l’IA dans le monde varient considérablement. Dans l’UE, la loi sur l’IA introduite l’année dernière est très axée sur l’éthique et le risque. L’utilisation de l’IA est évaluée selon le niveau de risque, certains risques étant jugés inacceptables et donc interdits. En revanche, les États-Unis ont adopté un modèle de « sandbox réglementaire » qui met l’accent sur la flexibilité de l’innovation.
Il existe également le processus d’Hiroshima, qui contient une intention de coordination mondiale mais un suivi limité ; chaque nation du G7 reste concentrée sur sa domination nationale en matière d’IA.
Aux États-Unis, la question a largement été laissée aux États, ce qui garantit effectivement un manque de réglementation efficace. Les États créent de nouvelles sandboxes pour attirer les entreprises technologiques et les investissements, mais il est peu probable qu’il y ait une réglementation significative au niveau des États, seulement des exceptions accordées.
Le Royaume-Uni a lutté sur le plan national et international pour s’établir comme un acteur indépendant à la suite du Brexit. Grâce à la déréglementation et au plan « Leveling Up » du gouvernement, l’introduction de sandboxes réglementaires n’est pas une surprise. Le gouvernement britannique souhaite que le pays soit une superpuissance de l’IA pour des avantages politiques internes et externes.
Il est important de noter que les approches de l’UE se concentrent davantage sur la sécurité des consommateurs, tout en tenant compte de la force de son marché commun. Cela a du sens, étant donné l’histoire de l’UE avec la réglementation fragmentée. La conformité partagée, les normes et le commerce transfrontalier sont essentiels à son fonctionnement. Toutefois, ils exigent également que chaque État membre dispose d’une sandbox opérationnelle d’ici la même date.
La nature politique des protocoles
Aucune réglementation de l’IA ne peut être véritablement neutre ; chaque choix de conception, chaque garde-fou et chaque réglementation reflètent les intérêts gouvernementaux ou corporatifs sous-jacents. La réglementation de l’IA est devenue un outil géopolitique ; les nations l’utilisent pour sécuriser des avantages économiques ou stratégiques. Les contrôles d’exportation de puces en sont un exemple actuel.
La seule réglementation effectivement introduite jusqu’à présent a été conçue pour entraver un marché. La course mondiale à la suprématie en matière d’IA maintient la gouvernance comme un mécanisme de compétition plutôt que de sécurité collaborative.
Sécurité sans frontières, mais gouvernance avec cloisonnement
Le principal problème épineux ici est que les menaces habilitées par l’IA transcendent les frontières, tandis que la réglementation reste confinée. Les menaces évolutives d’aujourd’hui comprennent à la fois des attaques sur les systèmes d’IA et des attaques utilisant des systèmes d’IA. Ces menaces croisent les juridictions, mais la réglementation reste cloisonnée. La sécurité est isolée dans un coin alors que les menaces traversent tout l’internet.
Nous commençons déjà à voir l’abus d’outils d’IA légitimes par des acteurs de menace globale exploitant de faibles contrôles de sécurité. Par exemple, des activités malveillantes ont été observées avec des outils de création de sites d’IA qui ressemblent davantage à des clones de sites et peuvent être facilement abusés pour créer des infrastructures de phishing.
De la réglementation réactive à la défense proactive
Le retard réglementaire est inévitable, mais la stagnation ne l’est pas. Nous avons besoin d’une gouvernance adaptative et prédictive avec des cadres qui évoluent avec la technologie ; il s’agit de passer d’une réglementation réactive à une défense proactive. Idéalement, cela ressemblerait à :
- Le développement de normes internationales partagées pour la classification des risques liés à l’IA.
- Une participation élargie à l’élaboration des normes au-delà des gouvernements et des grandes entreprises.
- Favoriser la diversité des pensées dans la gouvernance.
- Un mécanisme de signalement des incidents et de transparence.
Bien que le fossé de gouvernance ne disparaisse jamais, des cadres collaboratifs, transparents et inclusifs peuvent empêcher qu’il ne devienne une vulnérabilité permanente pour la sécurité mondiale.
