Déréglementation de l’intelligence artificielle : un risque pour les marchés technologiques de l’UE
La Union Européenne envisage une approche plus légère en matière de réglementation de l’intelligence artificielle, conformément à une proposition de déréglementation émise par la Commission Européenne en novembre 2025. Ce plan, déjà largement approuvé par les pays de l’UE mais en attente de finalisation, rapproche l’UE de l’approche généralement favorisée par les États-Unis. Évidemment, les grandes entreprises technologiques soutiennent cette initiative.
Les décideurs européens espèrent que ce plan contribuera à réduire l’écart de performance entre les marchés technologiques de l’UE et des États-Unis.
Affaiblissement des droits des utilisateurs
Le plan implique un affaiblissement des droits des utilisateurs de technologies. Il simplifie l’utilisation de données sensibles par les entreprises d’IA pour former leurs algorithmes. Les Européens pourraient être plus exposés à la discrimination ; par exemple, un algorithme pourrait utiliser des informations sur leur orientation sexuelle ou leurs croyances religieuses contre leurs intérêts. De plus, certaines exigences de transparence seront supprimées : si un développeur évalue lui-même qu’un système d’IA n’est pas à haut risque, il ne sera plus obligé d’enregistrer son application dans une base de données publique de l’UE.
Les circonstances dans lesquelles des décisions entièrement automatisées sont légales seront élargies, même si cela entraîne des licenciements par des machines plutôt que par des humains.
L’impact de la réglementation sur les performances technologiques
Cependant, il n’existe pas de preuves convaincantes que la protection des droits fondamentaux de l’UE soit à l’origine de la performance tiède des marchés de l’IA en Europe. L’état actuel de la technologie dans l’UE est le reflet de choix industriels passés plutôt que des impacts des régulations numériques. Par exemple, en 2003, la part de l’Europe dans les dépenses mondiales en R&D technologique s’élevait à 22%, contre 55% pour les États-Unis. Dix ans plus tard, elle avait chuté à 18% dans l’UE et à 53% dans les États-Unis.
Au lieu de se concentrer sur les technologies de pointe, l’Europe s’est davantage orientée vers des secteurs de moyenne technologie, comme la fabrication automobile. Cela n’a rien à voir avec les lois de protection de la vie privée en Europe, en vigueur depuis 2018, ou avec la Loi sur l’IA (Règlement (UE) 2024/1689) qui vise à traiter les risques liés à l’IA et qui n’est pas encore entièrement entrée en vigueur.
Le modèle chinois : un contraste frappant
Un autre signe que la réglementation n’est pas si cruciale pour déterminer la performance technologique vient de la Chine – souvent considérée comme le seul rival crédible des États-Unis en matière d’IA. On estime que les principaux modèles d’IA fondamentaux de la Chine ne sont désormais qu’à deux mois de ceux des États-Unis. Cependant, la réglementation technologique en Chine est tout sauf légère. Les entreprises doivent suivre un ensemble croissant de règles complexes.
Les entreprises sont tenues de former des chatbots uniquement avec des informations approuvées par le gouvernement. La Chine impose des lois de modération de contenu très strictes et limite significativement les flux de données transfrontaliers. Plutôt que d’aspirer à la stabilité et d’établir des règles qui changent rarement, l’approche chinoise consiste en des décrets gouvernementaux continus pour traiter des problèmes émergents, tels que les deepfakes. Cela engendre de l’incertitude, et l’incertitude décourage les investissements.
La Chine démontre qu’il est possible de prospérer même dans un environnement réglementaire jugé défavorable. D’autres facteurs, tels que les coûts énergétiques – considérés comme un facteur négatif majeur par environ la moitié des entreprises de l’UE – ou l’accès au financement, peuvent être plus significatifs. En 2024, les prix de l’électricité industrielle dans l’UE étaient plus de deux fois supérieurs à ceux de la Chine. De 2013 à 2024, l’investissement privé dans l’IA s’est élevé à 471 milliards de dollars aux États-Unis, suivi par la Chine avec 119 milliards et les pays de l’UE avec environ 50 milliards.
La question de la protection réglementaire
Alors, est-il raisonnable de réduire la protection réglementaire dans l’UE ? Étant donné le rôle marginal de la réglementation dans l’explication des performances technologiques, il est difficile de déterminer ce que l’économie européenne gagnerait en retour. La protection de la vie privée, par exemple, pourrait inciter les entreprises à réorienter leurs efforts d’innovation (par exemple, vers des applications plus respectueuses de la vie privée), mais il est peu probable qu’elle ait des effets significatifs sur la productivité globale par rapport à l’accès à des ressources essentielles, à l’infrastructure et au financement.
Si quelque chose, la réduction des protections pourrait saper la confiance dans l’économie numérique européenne et diminuer la demande pour les services technologiques, bien que la demande pour l’IA soit susceptible de croître indépendamment des actions réglementaires. Les décideurs de l’UE devraient donc veiller à ce que les réglementations protègent les utilisateurs contre les dommages, plutôt que de se concentrer excessivement sur les liens relativement faibles entre réglementation et innovation.
Vers une meilleure réglementation
Bien sûr, le cadre réglementaire de l’UE a besoin d’améliorations. La réglementation peut fausser la concurrence et favoriser la concentration du marché, par exemple, en imposant des charges disproportionnées aux petites entreprises. La réglementation peut également être dépassée par les marchés, les nouveaux risques n’étant pas anticipés par les législateurs.
La plupart des exigences de la Loi sur l’IA sont déterminées par le risque qu’une application est censée poser, compte tenu de son objectif prévu. Cela laisse une lacune pour des usages inattendus qui se révèlent nuisibles en pratique (comme les algorithmes de ‘nudification’ ou les effets potentiellement néfastes encore flous de l’IA agentique). Les autorités publiques peuvent également avoir du mal à faire respecter la loi et pourraient nécessiter de nouveaux outils de surveillance de l’IA plus efficaces. Mais bien que le cadre réglementaire de l’IA de l’UE ait besoin de perfectionnement, il ne devrait pas être affaibli par la croyance erronée qu’une réglementation plus laxiste bénéficierait à l’économie européenne.
