Nouvelle loi californienne pour des normes de sécurité en intelligence artificielle

Nouvelle loi étatique visant à promouvoir les normes de sécurité de l’IA

Avec l’augmentation des préoccupations concernant les dangers potentiels des systèmes d’intelligence artificielle, la Californie pourrait bientôt intervenir pour encourager la création de normes de sécurité. La semaine dernière, le Sénat de l’État a adopté un projet de loi qui a été envoyé à l’Assemblée, visant à créer une nouvelle commission ayant le pouvoir de reconnaître officiellement des organisations tierces privées qui développent des normes de sécurité pour évaluer des modèles d’IA spécifiques.

La nécessité de la législation

Le sénateur démocrate de Pleasanton, Jerry McNerney, auteur de la législation, a souligné la nécessité d’une réglementation pour garantir la sécurité de l’IA et établir des garde-fous. Cependant, il a noté que la réglementation gouvernementale a tendance à être lente et encombrante, ce qui la rend peu susceptible de suivre le rythme rapide du développement de l’IA.

McNerney a fait valoir que des organismes de normes indépendants ont été couramment utilisés dans diverses industries pour assurer la sécurité et devraient être en mesure de suivre plus efficacement la technologie de l’IA.

Les principales fonctionnalités de la commission

Le projet de loi SB 813 ne va pas établir des normes en soi, mais il mettra en place la Commission californienne des normes et de la sécurité de l’IA au sein du bureau du gouverneur. Cette commission sera chargée de superviser les organisations qui développent et appliquent des normes pour l’IA.

La commission évaluera ces organisations de vérification indépendante (IVO) et reconnaîtra celles qui répondent à ses directives. Pour obtenir cette reconnaissance officielle, les IVO devront soumettre un plan décrivant comment elles évalueront si les développeurs d’IA atténuent les risques de sécurité.

Critères d’évaluation et suivi

Les plans des IVO devront inclure une méthode d’audit des modèles et applications d’IA, en s’assurant que leurs développeurs suivent les meilleures pratiques pour prévenir des dommages. De plus, les IVO devront établir des protocoles pour surveiller les modèles d’IA après leur évaluation initiale, en identifiant d’éventuels nouveaux risques.

Les organisations devront également prévoir comment diriger les développeurs pour corriger les modèles lorsque les mesures d’atténuation échouent, ainsi qu’un protocole pour révoquer les certifications si ces corrections ne sont pas effectuées rapidement.

Caractère volontaire du système

Le système créé par le SB 813 sera volontaire. Les développeurs ne seront pas obligés de faire évaluer leurs modèles par les organisations de normes, et l’État ne mandatira pas ces organisations.

Cependant, McNerney envisage que ce système fonctionne comme d’autres organismes, offrant aux modèles certifiés un tampon d’approbation qui les aidera sur le marché. Cela agirait comme un « coup de pouce » du gouvernement vers l’industrie privée pour développer et respecter des normes de sécurité de l’IA.

Réactions et perspectives

Certains dans l’industrie technologique s’opposent toujours au SB 813, affirmant qu’il ajoute de l’incertitude au marché sans améliorer significativement la sécurité. Un directeur d’un groupe de lobbying a critiqué le projet de loi pour son manque de clarté et d’incitations pour que les entreprises participent au système.

Malgré cela, McNerney reste optimiste quant à l’avenir de la législation, notant qu’elle a reçu un soutien important au Sénat. Il voit cette initiative comme une réponse nécessaire aux exigences croissantes du public en matière de sécurité de l’IA.

La création de normes de sécurité de l’IA pourrait devenir encore plus importante si le gouvernement fédéral tente de réduire la réglementation de l’IA au niveau des États, avec des implications potentielles pour la sécurité publique.

Scroll to Top