La Commission européenne défend ses décisions politiques dans les modifications proposées à la loi sur l’IA de l’UE
Bruxelles, le 14 janvier 2026 – La Commission européenne a défendu des décisions politiques fondamentales dans les amendements proposés à la loi sur l’IA de l’UE, maintenant l’interdiction de l’identification biométrique en temps réel dans les espaces publics et les obligations basées sur le risque pour les systèmes d’IA à haut risque.
Cadre basé sur le risque et pratiques interdites
La vice-présidente exécutive de la Commission, Margrethe Vestager, a confirmé les exigences de transparence pour les modèles d’IA à usage général, ainsi que des seuils de risque systémique pour les modèles dépassant 10×10^25 FLOPS en calcul d’entraînement. Les amendements visent à résoudre les défis d’application après 18 mois, documentant les charges de conformité pour 4 500 PME, tout en préservant les protections des droits fondamentaux dans les 27 États membres.
Principaux éléments des amendements
- Maintien des pratiques interdites dans l’article 5
- Obligations de transparence pour l’IA à usage général préservées
- Procédures d’évaluation de conformité pour les systèmes à haut risque simplifiées
- Extension des compétences de supervision exclusives de l’Office de l’IA
- Mesures de simplification pour les PME
- Préservation des dates d’application phasées
- Obligations de transparence mandatant le labeling du contenu généré par l’IA
- Les codes de pratique standardisent les évaluations de risque systémique
- Cadre de surveillance du marché coordonne les 27 États membres
- Coopération bilatérale facilitant la conformité des pays tiers
- Évaluation d’impact valide des économies de conformité de 6,2 milliards d’euros
- Procédure législative visant l’adoption ordinaire au 3e trimestre 2026
Impact et conformité
Les amendements préservent le cadre basé sur le risque établi lors des négociations de trilogue en 2024, avec une mise en œuvre échelonnée commençant en août 2024. Les fonctionnaires de la Commission ont présenté le paquet au Comité de l’industrie, de la recherche et de l’énergie du Parlement européen, confirmant qu’aucun changement n’a été apporté à l’article 5 concernant les pratiques interdites, telles que les systèmes de notation sociale et le scraping non ciblé de données biométriques.
Comme l’a rapporté Madhumita Murgia du Financial Times, les propositions de la Commission renforcent les pouvoirs de supervision de l’Office de l’IA sur les modèles d’IA à usage général intégrés dans des systèmes à haut risque, réduisant la fragmentation de la gouvernance entre les États membres.
Obligations de transparence pour l’IA à usage général
Les obligations de l’article V pour les modèles d’IA à usage général demeurent inchangées, exigeant des résumés détaillés des sources de données d’entraînement, des résultats d’évaluation de qualité et des évaluations de risque systémique. Les modèles dépassant 10×10^25 FLOPS doivent faire rapport d’incidents de cybersécurité dans un délai de 72 heures à l’Office de l’IA.
La Commission a rejeté les demandes de l’industrie pour des seuils basés sur la performance, maintenant les métriques de puissance de calcul comme principaux indicateurs de risque systémique.
L’Office de l’IA a publié ses premiers codes de pratique en décembre 2025, standardisant les exigences de transparence pour 420 modèles de fond déployés sur le marché unique. Les amendements étendent les exigences simplifiées de documentation technique aux petites et moyennes entreprises traitant 3 200 déploiements à haut risque chaque année.
Les consultations avec les parties prenantes ont reçu 28 000 réponses, dont 82 % soutiennent le maintien des obligations GPAI.
Tim Green a souligné l’approche équilibrée de la loi. Il a déclaré : « La loi sur l’IA de l’UE ouvre la voie à une IA centrée sur l’humain et digne de confiance. Elle établit des règles uniformes pour les systèmes d’IA à haut risque, en mettant l’accent sur la transparence, la responsabilité et la protection de la vie privée. La loi équilibre l’innovation avec la protection des droits fondamentaux dans le marché de l’UE. »
Procédures d’évaluation de conformité pour les systèmes à haut risque
Les procédures d’évaluation de conformité de l’article 43 maintiennent l’évaluation par des tiers, garantissant ainsi que les systèmes à haut risque respectent les normes établies lors de l’adoption de la loi.
