Coûts cachés de l’Acte sur l’IA : un frein à l’innovation en Europe

€31 milliards de coûts pour les innovateurs européens : pourquoi la loi sur l’IA est un échec

Il n’existe aucune preuve de préjudice justifiant une surveillance stricte. Ces entreprises luttent déjà contre des coûts élevés pour se conformer aux règles existantes dans différents pays de l’UE, en plus de faire face à des prix énergétiques extrêmement élevés, à des fournitures de matières premières limitées et à des tarifs douaniers prohibitifs pour l’acier sur leur principal marché de croissance, les États-Unis.

Respirons profondément. Nous avons besoin d’une réglementation équilibrée pour l’IA, et il vaut la peine de prendre le temps de s’assurer que nous faisons les choses correctement. Ne pas le faire signifie que l’Europe pourrait ne pas être en mesure d’augmenter ses investissements dans l’IA, au-delà des misérables 7,5 % du total mondial qu’elle dépense actuellement.

Les coûts de l’inaction

Le coût de ne pas agir est énorme. Une petite entreprise de 50 employés qui fabrique un outil d’IA dans l’un de ces secteurs pourrait tomber sous la catégorie des hauts risques dans l’Annexe I de la loi sur l’IA. Cela signifie immédiatement des coûts initiaux de conformité allant de 320 000 € à 600 000 €. De plus, elle devra faire face à des coûts pouvant atteindre 150 000 € par an par la suite.

Cela pèse lourdement sur les petites entreprises, érodant jusqu’à 40 % de leurs bénéfices.

Une alternative viable

Il n’est pas nécessaire que cela soit ainsi. Nous pourrions prendre le temps de reporter la date limite d’application de la loi sur l’IA et de continuer à discuter de ce qui doit vraiment être considéré comme à haut risque selon la loi.

Ces entreprises – comme les fabricants de machines, de dispositifs médicaux et d’équipements radio – sont déjà régies par les règles les plus strictes au monde pour leurs secteurs afin d’assurer la sécurité de leurs produits.

Nous devons avoir une réglementation équilibrée pour l’IA, et il vaut la peine de prendre le temps de s’assurer que nous faisons les choses correctement.

Risque d’ajout d’une nouvelle couche de réglementation

Bien sûr, nous devons détecter les lacunes dans les cadres existants et les ajuster pour traiter l’IA si nécessaire. Mais nous devons garder à l’esprit qu’il n’y a eu jusqu’à présent aucun signal d’alarme dans ces secteurs. Au contraire, nous risquons d’ajouter une couche de réglementation supplémentaire si les outils d’IA – conçus pour améliorer leurs opérations – sont classés comme à haut risque selon la loi sur l’IA.

Les produits et services resteront sûrs si les entreprises déjà régulées sous des cadres de sécurité des produits sont déplacées de la Section A de l’Annexe I de la loi sur l’IA vers l’approche plus flexible offerte par la Section B.

Opportunités à saisir

L’UE pourra toujours offrir une IA sûre si le Parlement européen et le Conseil demandent à la Commission européenne de reporter les délais d’application de la loi sur l’IA. Cela donnerait un peu de temps pour continuer la discussion sur ces changements nécessaires, similaire à l’espace de respiration accordé à l’ombudsman de la durabilité l’année dernière.

Les avantages pourraient être énormes. Il y a 2,2 millions d’entreprises manufacturières et 38 000 fabricants de dispositifs médicaux à travers l’Europe. Ces entreprises fournissent 30 millions d’emplois.

Beaucoup de ces entreprises sont désireuses de profiter de la révolution de l’IA pour développer des fonctions de sécurité basées sur l’IA pour les équipements industriels, des technologies médicales activées par l’IA ou des équipements radio alimentés par l’IA et des produits industriels connectés.

L’IA peut nous aider à faire plus, à le faire mieux et plus rapidement.

Coûts de conformité

Ces produits sont déjà réglementés avec la possibilité d’ajouter plus de surveillance si de nouveaux risques apparaissent. Il est excessif d’ajouter un tout nouveau cadre juridique alors qu’il existe déjà un bon cadre en place.

Il y a eu beaucoup de réglementations technologiques au cours des six dernières années : près de 40 nouvelles réglementations. Certaines répètent les mêmes exigences. D’autres se chevauchent. Certaines entrent en conflit les unes avec les autres.

Chaque réglementation coûte de l’argent et du temps pour se conformer. Cela pèse sur l’ensemble de l’économie. DIGITALEUROPE estime que cela coûte 3,3 milliards € par an de se conformer à la loi sur l’IA, 60,2 milliards € par an pour se conformer aux réglementations sur la cybersécurité et 235 millions € pour se conformer aux exigences de partage de données de la loi sur les données.

Nos membres affirment que les coûts de conformité globaux ont augmenté de 13 % au cours des six dernières années. Ils doivent payer des travailleurs pour collecter des informations et créer les bons rapports, ils doivent payer des avocats et des consultants pour bien se conformer. Ils peuvent également devoir utiliser le temps des travailleurs pour recoder ou modifier des produits afin de respecter les nouvelles règles.

Impact sur l’avenir

C’est difficile à supporter alors que les coûts de l’énergie augmentent également, alors que le commerce mondial est devenu complexe, et alors que la planification pour un avenir incertain est devenue beaucoup plus difficile.

Dans les faits, cela touche notre avenir. Payer plus en coûts de conformité pourrait réduire l’investissement dans l’IA de 20 %. Et, pour le répéter, à 7,5 % du total mondial, l’investissement de l’UE dans l’IA est déjà bien derrière les États-Unis et la Chine.

Le rapport de Mario Draghi de 2024 a appelé l’UE à dépenser jusqu’à 800 milliards € d’investissement supplémentaire chaque année pour rester compétitive. C’est difficile à faire lorsque se conformer à des règles trop compliquées pourrait également coûter à l’UE environ 500 milliards € chaque année selon certaines estimations.

DIGITALEUROPE a constaté plusieurs cas d’entreprises qui décident de ne pas avancer avec un projet d’IA en raison du coût ou de la difficulté de se conformer à une réglementation supplémentaire.

Exemples concrets

Un fabricant souffrant d’arrêts de production nocturnes répétés – causés par des animaux déclenchant des barrières lumineuses de sécurité – a développé une caméra IA pour réduire les fausses alarmes et distinguer les personnes des autres objets.

Il a évalué les exigences de la loi sur l’IA : documentation technique étendue, évaluations d’impact sur la protection des données, preuves de biais, tests de pénétration, surveillance post-commercialisation et la possibilité d’implication des autorités réglementaires.

Il a abandonné le projet.

Parfois, c’est juste le fardeau de la paperasse qui pourrait tuer l’innovation. L’une des plus grandes entreprises automobiles d’Europe a construit une plateforme IA pour automatiser des tâches spécialisées pour ses employés. Les travailleurs ont été enthousiastes et ont aidé à générer 300 nouvelles applications chaque semaine qui pourraient faciliter leur vie.

Cependant, la loi sur l’IA peut signifier que chacune de ces applications pourrait être classée comme un nouveau modèle d’IA générative. Chacune devrait fournir de la documentation pour se conformer à la loi. Cela pourrait devenir absurde ; un outil qui pourrait faire gagner du temps et de l’argent finirait par coûter du temps et de l’argent.

DIGITALEUROPE comprend que les législateurs souhaitent agir rapidement et efficacement pour conclure un accord sur l’ombudsman de l’IA.

Nous aimerions que nos entreprises avancent rapidement et fassent mieux aussi. Leur donner plus de temps et plus de flexibilité, surtout à un moment où les entreprises européennes font face à tant de défis, pourrait être un véritable changement de jeu.

Nous avons le marché – 440 millions de consommateurs et 23 millions d’entreprises – nous avons les idées – 17 % des demandes de brevet dans le monde – et nous avons les compétences, avec 18 % des talents en IA de haut niveau.

Maintenant, veuillez nous donner une chance.

Scroll to Top