Partage de notre cadre de conformité pour la loi californienne sur la transparence en matière d’IA frontalière
Le 1er janvier, la loi californienne sur la transparence en matière d’IA frontalière (SB 53) entrera en vigueur. Elle établit les premières exigences de sécurité et de transparence en matière d’IA frontalière pour les risques catastrophiques.
Bien que nous ayons longtemps plaidé pour un cadre fédéral, nous avons soutenu la SB 53 car nous croyons que les développeurs d’IA frontaliers comme nous doivent être transparents sur la manière dont ils évaluent et gèrent ces risques. Il est important de noter que la loi équilibre la nécessité de pratiques de sécurité solides, de signalement d’incidents et de protections pour les lanceurs d’alerte, tout en préservant la flexibilité dans la manière dont les développeurs mettent en œuvre leurs mesures de sécurité et en exemptant les petites entreprises de charges réglementaires inutiles.
Contenu de notre cadre de conformité frontalière
Notre Cadre de Conformité Frontalière (CCF) décrit comment nous évaluons et atténuons les menaces cybernétiques, chimiques, biologiques, radiologiques et nucléaires, ainsi que les risques de sabotage de l’IA et de perte de contrôle pour nos modèles frontaliers. Le cadre présente également notre système de classification pour évaluer les capacités des modèles par rapport à ces catégories de risques et explique notre approche en matière de mitigations. De plus, il traite de la protection des poids des modèles et de notre réponse aux incidents de sécurité.
Une grande partie de ce qui se trouve dans le CCF reflète une évolution des pratiques que nous avons suivies depuis des années. Depuis 2023, notre Politique de Mise à l’Échelle Responsable (PMER) a défini notre approche pour gérer les risques extrêmes des systèmes d’IA avancés et a guidé nos décisions concernant le développement et le déploiement de l’IA. Nous publions également des cartes de système détaillées lors du lancement de nouveaux modèles, qui décrivent les capacités, les évaluations de sécurité et les analyses de risques. D’autres laboratoires ont adopté des approches similaires de manière volontaire. Selon la nouvelle loi qui entrera en vigueur le 1er janvier, ces types de pratiques de transparence deviennent obligatoires pour ceux qui construisent les systèmes d’IA les plus puissants en Californie.
Vers un standard fédéral
La mise en œuvre de la SB 53 est un moment important. En formalisant des pratiques de transparence réalisables que les laboratoires responsables suivent déjà de manière volontaire, la loi garantit que ces engagements ne peuvent pas être abandonnés discrètement plus tard, une fois que les modèles deviennent plus capables ou que la concurrence s’intensifie. À présent, un cadre fédéral de transparence en matière d’IA, inscrivant ces pratiques, est nécessaire pour assurer la cohérence à travers le pays.
Plus tôt cette année, nous avons proposé un cadre pour une législation fédérale. Il met l’accent sur la visibilité publique dans les pratiques de sécurité, sans essayer de verrouiller des approches techniques spécifiques qui pourraient ne plus avoir de sens avec le temps. Les principes fondamentaux de notre cadre comprennent :
- Exiger un cadre de développement sécurisé public : Les développeurs concernés devraient publier un cadre décrivant comment ils évaluent et atténuent les risques graves, y compris les dommages chimiques, biologiques, radiologiques et nucléaires, ainsi que les dommages liés à l’autonomie mal alignée des modèles.
- Publication de cartes de système lors du déploiement : La documentation résumant les procédures de test, d’évaluation, de résultats et de mitigations devrait être divulguée publiquement lors du déploiement des modèles et mise à jour si les modèles sont substantiellement modifiés.
- Protection des lanceurs d’alerte : Il devrait être explicitement interdit par la loi pour un laboratoire de mentir sur sa conformité avec son cadre ou de punir les employés qui soulèvent des préoccupations concernant des violations.
- Normes de transparence flexibles : Un cadre de transparence en matière d’IA fonctionnel devrait avoir un ensemble minimum de normes afin d’améliorer la sécurité et la sécurité publique tout en tenant compte de l’évolution de la nature du développement de l’IA. Les normes devraient être flexibles, des exigences légères qui peuvent s’adapter à mesure que les meilleures pratiques consensuelles émergent.
- Limiter l’application aux plus grands développeurs de modèles : Pour éviter de surcharger l’écosystème des startups et les petits développeurs avec des modèles à faible risque de causer des dommages catastrophiques, les exigences ne devraient s’appliquer qu’aux développeurs frontaliers établis construisant les modèles les plus capables.
À mesure que les systèmes d’IA deviennent plus puissants, le public mérite d’avoir une visibilité sur la manière dont ils sont développés et sur les mesures de protection en place. Nous sommes impatients de travailler avec le Congrès et l’administration pour développer un cadre national de transparence qui assure la sécurité tout en préservant le leadership de l’Amérique en matière d’IA.
