Lois de sécurité IA aux États-Unis : Californie et New York

Législation sur la sécurité de l’IA dans les États : Californie et New York

À la fin de 2025, la Californie et New York ont chacune adopté des lois pour imposer des protections pour le déploiement sécurisé de grands modèles d’IA de pointe. Ces lois visent à atténuer les risques catastrophiques associés à ces puissants modèles en exigeant des développeurs qu’ils publient des informations sur leurs protocoles de sécurité, y compris des évaluations des risques, et qu’ils signalent les incidents critiques de sécurité à l’État.

Convergence significative

La loi californienne, connue sous le nom de Transparency in Frontier Artificial Intelligence Act (TFAIA), a été signée par le gouverneur le 29 septembre 2025 et est entrée en vigueur le 1er janvier 2026. La loi de New York, intitulée Responsible AI Safety and Education Act (RAISE Act), a été signée le 16 décembre 2025 et entrera en vigueur le 1er janvier 2027. Notamment, le gouverneur de New York a choisi d’adopter la plupart des dispositions de la Californie pour créer un « benchmark unifié » entre les États.

Exigences clés

Les deux lois partagent plusieurs exigences fondamentales :

  • Cadre d’IA de pointe : Un ensemble de protocoles techniques et organisationnels documentés que le développeur doit rédiger, mettre en œuvre et publier pour gérer, évaluer et atténuer les risques catastrophiques.
  • Modèles d’IA couverts : Comprennent les modèles de fondation formés avec plus de 1026 opérations.
  • Développeurs : Inclut les développeurs de pointe, définis comme ceux ayant utilisé une puissance de calcul substantielle pour entraîner des modèles.

Risques et incidents critiques

Le terme « risque catastrophique » est défini comme un risque prévisible et matériel pouvant entraîner la mort ou des blessures pour plus de 50 personnes, ou des dommages de plus d’un milliard de dollars associés à un incident impliquant un modèle d’IA de pointe. Des exemples incluent l’assistance à la création d’armes ou la conduite de cyberattaques sans supervision humaine significative.

Les incidents critiques de sécurité doivent être signalés à l’État dans des délais spécifiques, avec des exigences de divulgation publique des incidents et des évaluations des risques.

Agences et pénalités

En Californie, l’Office of Emergency Services est chargé des rapports, tandis qu’à New York, un bureau au sein du Department of Financial Services s’occupera de la mise en œuvre de la loi RAISE. Les violations peuvent entraîner des sanctions civiles, allant jusqu’à un million de dollars par infraction en Californie et jusqu’à trois millions pour les violations répétées à New York.

Ces lois reflètent une volonté croissante de réguler l’IA tout en minimisant la fragmentation réglementaire au niveau fédéral, comme le stipule l’Executive Order 14365 émis par la Maison Blanche.

Conclusion

Les lois de la Californie et de New York représentent des étapes importantes vers une réglementation plus stricte des modèles d’IA de pointe, visant à protéger le public tout en encourageant l’innovation. Ce cadre réglementaire pourrait servir de modèle pour d’autres États à l’avenir.

Scroll to Top