Mesures de sécurité AI à l’échelle de l’État pour les jeunes de Californie
Une nouvelle mesure proposée à l’échelle de l’État en Californie vise à renforcer les protections pour les enfants et les adolescents utilisant l’IA. Ce projet de loi a été introduit par Common Sense Media, avec le soutien public d’OpenAI, dans l’espoir de réussir là où des législations similaires ont échoué l’année dernière.
Contexte de la mesure
La mesure propose des exigences concernant la vérification d’âge, la protection des données, les contrôles parentaux et des audits de sécurité indépendants pour les produits d’IA utilisés par des mineurs. Elle n’a pas encore été présentée comme un projet de loi à l’Assemblée de l’État.
Lors d’une conférence de presse virtuelle, les intervenants de Common Sense Media ont décrit cette mesure comme une réponse aux inquiétudes croissantes des parents et aux leçons tirées de l’effort législatif précédent, le Projet de loi 1064, qui n’a pas été signé par le gouverneur Gavin Newsom l’année dernière.
Le Projet de loi 1064
Le Projet de loi 1064, parrainé par Common Sense Media, visait à protéger les jeunes des dangers associés à l’utilisation de l’IA. Bien qu’il ait été approuvé par l’Assemblée, le gouverneur a exprimé des préoccupations selon lesquelles ce projet entraînerait une interdiction de facto de l’utilisation des chatbots par les mineurs, plutôt que de permettre aux jeunes d’apprendre à interagir en toute sécurité avec les systèmes d’IA.
Les exigences de la nouvelle proposition
La proposition de mesure impose de nouvelles normes aux systèmes d’IA utilisés par les mineurs, y compris des outils de plus en plus commercialisés auprès des écoles. Le point central est la vérification d’âge, où les entreprises d’IA doivent s’assurer que l’utilisateur a moins de 18 ans et appliquer des protections pour les enfants si l’âge ne peut être confirmé avec certitude.
De plus, la proposition interdirait la publicité ciblée sur les enfants et restreindrait la vente de données de mineurs sans consentement parental, élargissant les protections à tous les utilisateurs de moins de 18 ans.
Garanties de sécurité
Au-delà de la protection de la vie privée, la proposition exige des garanties de sécurité liées au bien-être des étudiants. Elle nécessiterait des mesures pour empêcher les systèmes d’IA de générer ou de promouvoir du contenu lié à l’automutilation, aux troubles alimentaires, à la violence et aux actes sexuels explicites.
Elle interdirait également de manipuler les enfants en créant une dépendance émotionnelle ou en simulant des relations romantiques.
Contrôles parentaux
Les entreprises d’IA seraient tenues de fournir des contrôles parentaux puissants et faciles à utiliser, permettant aux parents de surveiller et de limiter l’utilisation de l’IA, ainsi que de recevoir des alertes en cas de détection de signes d’automutilation.
Suivi et audits
En cas d’adoption, la loi exigerait des audits indépendants des risques liés à la sécurité des enfants, avec des résultats à soumettre au procureur général de Californie. Les tests de sécurité des chatbots doivent être constants et continus, car les systèmes d’IA évoluent constamment.
Avenir des mesures
Les intervenants ont indiqué qu’ils poursuivent une stratégie à double voie : faire pression pour une action législative tout en conservant l’option d’une initiative référendaire, si nécessaire. Cette proposition pourrait façonner la manière dont les districts évaluent les outils d’IA et comment la sécurité des étudiants est équilibrée dans les salles de classe à l’échelle de l’État.
Ce n’est pas une question politique partisane ; il s’agit d’une nécessité reconnue par tous les parents et électeurs. Tout le monde s’accorde à dire qu’il faut des protections sérieuses pour les enfants, les adolescents et les familles.
