Les Nouvelles Régulations de l’IA à New York : Loi RAISE et Modèles Compagnons

Les lois de New York “RAISE” la barre en matière de sécurité de l’IA : le RAISE Act et les modèles d’IA compagnons

L’État de New York a été à l’avant-garde de la régulation de l’intelligence artificielle (IA) en 2025. Parmi ses activités notables, la législature de l’État de New York a adopté une loi budgétaire omnibus instaurant des mesures de protection pour les compagnons IA, entrée en vigueur le 5 novembre 2025. De plus, le gouverneur a signé une version amendée du Responsible Artificial Intelligence Safety and Education (RAISE) Act le 19 décembre 2025.

New York rejoint ainsi des États comme le Colorado, la Californie et l’Utah dans la régulation de l’IA au niveau étatique, faisant partie d’un patchwork croissant de législation complète et ciblée sur l’IA. Des dizaines d’États ont enfin adopté des lois liées à l’IA en 2025.

Modèles d’IA compagnons

La loi sur les modèles d’IA compagnons exige des opérateurs et des fournisseurs de compagnons IA qu’ils mettent en œuvre des mesures de sécurité pour détecter et traiter les expressions d’idéation suicidaire ou d’auto-mutilation des utilisateurs. De plus, ils doivent informer régulièrement les utilisateurs qu’ils ne communiquent pas avec un être humain.

Champ d’application : La loi s’applique à tous les opérateurs de compagnons IA avec des utilisateurs situés dans l’État de New York. Les « opérateurs » incluent à la fois les opérateurs et les fournisseurs de compagnons IA.

Les « compagnons IA » sont définis comme des systèmes utilisant l’IA, l’IA générative et/ou des « algorithmes de reconnaissance émotionnelle » conçus pour simuler une relation humaine soutenue avec un utilisateur. Cela inclut :

  • La rétention d’informations sur les interactions passées et les préférences de l’utilisateur.
  • La formulation de questions émotionnelles non sollicitées.
  • Le maintien d’un dialogue continu sur des sujets personnels.

Exigences clés : Les opérateurs doivent fournir une notification claire que l’utilisateur ne communique pas avec un humain, au moins toutes les trois heures lors d’interactions continues. Ils doivent aussi mettre en place des protocoles pour détecter et traiter les expressions d’idéation suicidaire ou d’auto-mutilation. En cas de détection, l’opérateur doit orienter l’utilisateur vers un service de crise approprié.

La loi sera appliquée par le procureur général de l’État, qui peut demander des injonctions et des pénalités civiles allant jusqu’à 15 000 $ par jour pour violation des dispositions.

Le RAISE Act

New York a également abordé des questions de sécurité plus larges en adoptant le RAISE Act, qui entrera en vigueur le 1er janvier 2027. Cette loi exige que les développeurs de modèles avancés mettent en œuvre des exigences de transparence et de divulgation, y compris la publication de leurs protocoles de sécurité.

Le RAISE Act s’applique aux modèles avancés développés, déployés ou opérés à New York, et définit ces modèles comme des systèmes IA de très grande échelle, avec des coûts de calcul dépassant 100 millions de dollars.

Les exigences clés pour les développeurs incluent :

  • Réalisation d’examens de sécurité annuels et d’audits tiers.
  • Publication d’informations sur les protocoles de sécurité.
  • Signalement des incidents de sécurité dans un délai de 72 heures.
  • Création de protocoles de sécurité pour prévenir des dommages critiques.

Le Department of Financial Services de New York établira un nouveau bureau pour superviser le développement de l’IA. Le procureur général pourra demander des pénalités civiles allant jusqu’à 1 000 000 $ pour la première violation et jusqu’à 3 000 000 $ pour les violations subséquentes.

New York a adopté plusieurs autres lois liées à l’IA en 2025, incluant des mesures sur la divulgation de la tarification algorithmique personnalisée et l’utilisation de répliques numériques. La Californie a également été particulièrement active en matière de régulation de l’IA, et plusieurs autres États disposent désormais de lois spécifiques à l’IA. Nous nous attendons à voir d’autres États proposer des lois similaires en 2026, malgré l’incertitude créée par le dernier décret exécutif.

Scroll to Top