Réglementations AI : les changements majeurs de 2026 aux États-Unis

Quelles sont les principales modifications des réglementations sur l’IA aux États-Unis en 2026 ?

Alors que les lois fédérales sur l’IA restent floues, deux lois majeures sur l’IA des États ont été mises en vigueur. L’administration Trump a renouvelé ses attaques contre la législation étatique sur l’IA, et les chercheurs expriment encore leur insatisfaction face aux lois actuelles.

Les lois SB-53 et RAISE

La loi SB-53 de Californie, entrée en vigueur le 1er janvier, exige des développeurs de modèles qu’ils divulguent comment ils vont atténuer les risques majeurs posés par l’IA, ainsi que de signaler les incidents de sécurité impliquant leurs modèles, sous peine d’amendes pouvant atteindre 1 million de dollars. Bien que moins exhaustive que les législations précédentes, cette loi est pratiquement la seule dans un paysage de l’IA très peu réglementé.

La loi RAISE, adoptée à New York fin décembre, présente des exigences de reporting similaires, mais impose des amendes pouvant atteindre 3 millions de dollars après la première violation d’une entreprise. La loi SB-53 oblige les entreprises à notifier l’État dans les 15 jours suivant un incident de sécurité, tandis que la RAISE exige une notification dans les 72 heures.

Une approche plus légère avec la SB-53

La loi SB-1047, une version antérieure de la SB-53, aurait exigé des laboratoires d’IA qu’ils testent la sécurité des modèles coûtant plus de 100 millions de dollars et qu’ils développent un mécanisme d’arrêt en cas de dysfonctionnement. Ce projet de loi a échoué, en partie à cause d’arguments selon lesquels il freinerait la création d’emplois et l’innovation.

La SB-53 adopte une approche plus légère, ciblant les entreprises ayant un chiffre d’affaires annuel brut supérieur à 500 millions de dollars, exemptant ainsi de nombreuses petites startups de l’IA des exigences de reporting.

Les défis de la réglementation

L’administration actuelle et les entreprises s’opposant à la réglementation de la sécurité de l’IA affirment que cela ralentirait le développement et nuirait aux emplois dans le secteur technologique. Le 11 décembre, le président Trump a signé un décret visant à centraliser les lois sur l’IA au niveau fédéral, affirmant que « la réglementation excessive des États entrave l’innovation ». Un groupe de travail sur la législation de l’IA a également été annoncé pour contester les lois d’État.

Protection des dénonciateurs

La loi SB-53 exige également que les entreprises d’IA protègent les dénonciateurs. Cela a attiré l’attention, car contrairement à d’autres parties de la loi, qui s’alignent sur le règlement de l’UE, ces protections sont uniques dans le domaine technologique.

Quel avenir pour la sécurité de l’IA ?

La loi SB-53 ne requiert pas que les laboratoires d’IA testent leurs modèles par des tiers, mais elle représente un pas vers plus de transparence et des exigences de reporting face aux risques catastrophiques. Selon des experts, même si le niveau de réglementation est insuffisant face aux dangers, il s’agit d’un premier pas vers la transparence et l’application de normes de sécurité.

En conclusion, bien que la réglementation sur l’IA soit encore en développement, les entreprises commencent à prioriser la gouvernance, influencées par les exigences des clients et des investisseurs. La transparence est cruciale, mais elle doit être accompagnée de mesures concrètes pour garantir la sécurité des systèmes d’IA.

Scroll to Top