Utilisation malveillante de l’IA et portée mondiale de la loi sur l’IA de l’UE

Risques sans frontières : l’utilisation malveillante de l’IA et la portée mondiale de la loi sur l’IA de l’UE

La loi sur l’intelligence artificielle (IA) de l’UE est l’une des premières réglementations contraignantes en matière d’IA dans le monde. Les décideurs politiques de l’UE ont l’intention qu’elle serve de modèle pour la gouvernance mondiale de l’IA, s’appuyant sur ce que l’on appelle l’effet Bruxelles.

Dans un domaine en évolution rapide et transformateur comme l’IA, la qualité réglementaire est une condition préalable à l’influence en tant que modèle. Dans ce cas, la qualité inclut la couverture adéquate des risques les plus critiques associés à l’utilisation, au déploiement et à l’adoption de l’IA.

Les risques liés à l’utilisation malveillante

Parmi ces risques se trouve l’utilisation malveillante, qui découle de l’utilisation intentionnelle des capacités de l’IA pour causer des dommages. Cette analyse teste les dispositions de la loi sur l’IA face aux risques d’utilisation malveillante.

Les résultats révèlent que la couverture des risques d’utilisation malveillante par la loi sur l’IA est inégale : certains risques sont abordés directement, d’autres seulement indirectement à travers d’autres réglementations de l’UE ou nationales, ou via des initiatives internationales. En laissant des lacunes significatives, la loi sur l’IA compromet sa propre valeur en tant que modèle mondial.

Les décideurs de l’UE devraient utiliser les révisions périodiques de la loi sur l’IA pour renforcer et compléter sa couverture réglementaire. En parallèle, l’UE devrait s’engager internationalement avec un nouveau discours qui reconnaît les limites de l’exportabilité de la loi sur l’IA dans sa forme actuelle.

Pressions concurrentielles et sécurité de l’IA

Dans le paysage géopolitique actuel, la course à la domination de l’IA parmi les États et les entreprises se concentre sur le leadership technologique, et non sur la sécurité et la gestion des risques. Cela est démontré par les politiques et investissements des principaux acteurs géopolitiques.

Les États-Unis ont publié le plan d’action pour l’IA de l’Amérique à l’été 2025, visant à positionner l’IA américaine comme la norme mondiale. Cette ambition est poursuivie à travers une approche réglementaire largement laxiste.

La Chine, quant à elle, vise également à devenir un leader mondial de l’IA d’ici 2030, en ciblant les avancées dans les théories, technologies et applications de l’IA grâce à une politique industrielle coordonnée.

L’UE a également reconnu ce paysage concurrentiel et a lancé le plan d’action pour le continent de l’IA en avril 2025, visant à mobiliser les infrastructures informatiques, les données, les talents, les algorithmes et la réglementation.

Analyse des risques d’utilisation malveillante

Les efforts de sécurité de l’IA face aux pressions concurrentielles sont cruciaux. Les cadres réglementaires de l’IA doivent jouer un rôle critique pour intégrer des garde-fous qui peuvent prévenir la matérialisation des risques catastrophiques associés aux capacités de l’IA.

La loi sur l’IA se distingue par sa nature contraignante, régulant des cas d’utilisation concrets en fonction de leur risque anticipé. Cependant, la couverture des risques d’utilisation malveillante est inégale, avec quatre sous-risques presque non régulés.

Limites de la loi sur l’IA

Les raisons de cette couverture inégale des risques d’utilisation malveillante résident dans la conception même de la loi. La loi vise à éviter les redondances réglementaires, en se concentrant sur les risques liés à l’IA qui ne sont pas couverts par la législation précédente.

En conséquence, de nombreux sous-risques d’utilisation malveillante sont complétés par d’autres lois de l’UE. Par exemple, les IA persuasives sont partiellement couvertes par la loi sur les services numériques, tandis que les atteintes à la vie privée sont abordées par d’autres réglementations.

Conclusions

La loi sur l’IA de l’UE représente une avancée significative pour la gouvernance de l’IA, mais sa portée et son influence mondiale seront limitées par des obstacles à sa mise en œuvre et par sa conception. Les décideurs de l’UE doivent reconnaître les limitations importantes dans la couverture des risques.

Cette analyse offre trois options politiques complémentaires pour les décideurs de l’UE cherchant à faire de la loi sur l’IA un modèle mondial. D’abord, réexaminer la loi au regard d’autres conceptualisations des risques. Ensuite, envisager des amendements lors des révisions périodiques. Enfin, engager un dialogue international honnête sur les limites de l’exportabilité de la loi.

Scroll to Top