L’interaction entre les normes et les réglementations de l’IA
Les juridictions mondiales envisagent de plus en plus des politiques pour garantir que les systèmes d’intelligence artificielle (IA) sont utilisés et développés de manière responsable, tout en équilibrant sécurité et innovation. Cependant, la course à la domination du marché mondial de l’IA dépasse la réglementation, laissant les entreprises exposées à des risques avec des plans de mise en œuvre simplifiés.
Le rôle des normes
Lors du Sommet mondial des normes de l’IA 2026, les parties prenantes ont noté que, bien que les cadres réglementaires tels que la Loi sur l’IA de l’UE continuent de se développer, les organisations pourraient concentrer leurs efforts sur les normes techniques, les systèmes d’assurance et d’autres outils qui peuvent orienter les pratiques de conformité dans la bonne direction.
Sara Rendtorff-Smith, responsable de la Division des technologies numériques émergentes à l’Organisation de coopération et de développement économiques (OCDE), a souligné que les normes organisationnelles et sectorielles sont “essentielles pour bien gouverner l’IA” et agissent comme l’ “infrastructure silencieuse de l’innovation”, permettant de déployer l’IA de manière sûre et responsable à travers nos économies et sociétés.
Les perceptions des normes
Les normes sont perçues différemment selon les juridictions. Certaines organisations de l’UE soutiennent actuellement qu’elles ne peuvent pas se conformer efficacement à la Loi sur l’IA sans les normes sectorielles promises avant les délais de mise en œuvre. D’autre part, les organisations américaines comptent sur l’ensemble des normes de l’Institut national des normes et de la technologie, y compris le Cadre de gestion des risques de l’IA et l’Initiative sur les normes des agents IA, pour ouvrir la voie à une IA responsable, malgré un patchwork de lois étatiques et l’absence de loi fédérale intersectorielle.
Priorité émergente : adapter les normes
Adapter les normes aux pratiques et politiques communes est également une priorité émergente. L’OCDE tient les parties prenantes du secteur public et privé informées grâce à son Observatoire des politiques de l’IA, qui suit plus de 2 000 politiques d’IA dans plus de 80 juridictions. L’IAPP procède à un suivi similaire via son Suivi mondial des lois et politiques sur l’IA.
La variance à travers les propositions mondiales, ajoutée à la nature en constante évolution de l’IA, exerce de nouvelles pressions sur le développement des normes.
Défis des normes
“L’IA teste le système comme jamais auparavant. Nous ne devrions pas être aveugles à cela. Nous ne devrions pas avoir peur de l’admettre. L’IA teste les régulateurs, la société, le monde académique et l’industrie”, a déclaré David Bell, directeur de la politique des normes à l’Institut britannique des normes. “L’IA change fondamentalement notre façon de travailler. … Les normes construisent le monde, mais notre manière de travailler à l’avenir doit changer.”
Collaboration pour l’application des normes
Un autre pilier de la construction des normes est l’application collaborative, qui sert de référence pour les meilleures pratiques. Rendtorff-Smith a averti qu’une application mondiale insuffisante et un “paysage très fragmenté” mettent en péril la fondation que les normes nécessitent pour leur force et leur adoptabilité.
“(Ce paysage fragmenté) sera marqué non seulement par des coûts de conformité significatifs pour les entreprises, mais aussi par des barrières au déploiement transfrontalier ainsi qu’une innovation étouffée, en fin de compte”, a-t-elle déclaré. “Nous avons donc besoin de principes, d’une définition commune, d’un alignement des cadres et de normes basées sur des preuves.”
Prochaines étapes
Les parties prenantes soutiennent que les efforts d’application devraient se concentrer sur le renforcement de la coordination entre les outils réglementaires et techniques tout en abordant les lacunes potentielles dans la mise en œuvre de l’IA.
L’économiste senior de l’OCDE, Luis Aranda, a noté que les organisations devraient chercher à mesurer leur conformité et leurs protections de données. Il a affirmé que, bien que les normes et réglementations définissent les attentes pour une IA de confiance, les méthodes cohérentes pour évaluer la performance des systèmes restent limitées.
“C’est ce à quoi nous devons réfléchir aujourd’hui”, a déclaré Aranda. “Les normes sont excellentes. Elles vous disent à quoi ressemble le bien. Mais elles ne vous disent pas comment mesurer le bien.”
Il a également souligné la nécessité d’approches de gouvernance plus inclusives et représentatives à l’échelle mondiale, notant que celles-ci nécessiteront “des fondations partagées, des concepts partagés et des définitions partagées.” Les préoccupations concernant des réglementations spécifiques à l’IA pourraient entraver l’innovation.
“Nous savons tous qu’il y a une course mondiale à l’IA, et aucun pays ne veut, bien sûr, être le premier à arriver deuxième alors que tout le monde avance à grands pas”, a ajouté Aranda. “Nous voyons tous ces facteurs contribuer à cette préoccupation relative au timing en matière de réglementation, et c’est probablement pourquoi nous assistons également à une seconde vague d’initiatives nationales sur l’IA.”
