Législation californienne sur la sécurité des jeunes face à l’IA

OpenAI et un groupe de défense des droits plaident pour une nouvelle législation californienne sur la sécurité des jeunes et de l’IA

Dans un mouvement surprenant qui pourrait redéfinir l’avenir de la réglementation de l’IA pour les enfants et les adolescents, des groupes de défense de la sécurité des enfants basés dans la région de la baie, Common Sense Media et OpenAI, ont annoncé qu’ils s’associaient pour soutenir une initiative de vote globale sur la sécurité de l’IA pour les jeunes : le Parents & Kids Safe AI Act. Cette collaboration intervient après que les deux organisations avaient poursuivi des mesures de vote séparées.

Au cours des dernières semaines, leur collaboration s’est concrétisée grâce à des discussions directes entre les dirigeants des deux organisations, y compris des conversations au niveau des PDG. Selon les deux groupes, l’urgence de protéger les enfants contre les dangers de l’IA et un intérêt commun à éviter les erreurs de l’ère des médias sociaux ont finalement conduit à la décision de s’unir.

Une initiative pour protéger les enfants

James P. Steyer, PDG et fondateur de Common Sense Media, a déclaré : « Nous avons rédigé cette initiative pour protéger les enfants, et nous accueillons le soutien total d’OpenAI. Plutôt que de confondre les électeurs avec des mesures concurrentes, nous travaillons ensemble pour instaurer des protections solides pour les enfants, les adolescents et les familles. À ce moment décisif pour l’IA, nous ne pouvons pas faire la même erreur que nous l’avons fait avec les médias sociaux ! »

Chris Lehane, responsable des affaires mondiales chez OpenAI, a souligné l’importance de donner plus de contrôle aux parents sur la technologie qui pénètre la vie de leurs enfants. « L’IA sait beaucoup de choses, mais les parents savent le mieux », a-t-il déclaré. « Nous croyons que l’IA est un outil d’autonomisation… Mais cela implique également de s’assurer que les parents disposent des outils pour aider leurs enfants à l’utiliser en toute sécurité. »

Un projet de loi complet et strict

Décrit par les deux organisations comme la proposition la plus forte de son genre dans le pays, cette mesure établit des règles strictes sur la façon dont les entreprises construisent et déploient des systèmes d’IA utilisés par des mineurs. Cette annonce commune consolide deux efforts de vote précédemment séparés ; l’un dirigé par Common Sense Media et un autre en développement avec le soutien d’OpenAI.

Bruce Reed, qui dirige le travail sur les politiques d’IA chez Common Sense Media, a décrit la mesure comme « la loi sur la sécurité des jeunes et de l’IA la plus forte et la plus complète du pays », énonçant les dispositions clés conçues pour répondre aux préoccupations croissantes concernant l’impact de l’IA sur les mineurs.

Les enjeux de la protection des données

Cette loi commence par exiger une assurance d’âge, un aspect majeur des protections numériques actuelles. Reed a noté que la proposition s’appuie sur des lois étatiques précédentes, précisant que lorsque les entreprises reçoivent plusieurs signaux d’âge et « ne peuvent pas dire avec certitude si l’utilisateur est un adulte ou un enfant, elles doivent appliquer les paramètres de protection des enfants. »

La proposition élargit également les protections de la vie privée existantes en Californie. Actuellement, l’interdiction de la publicité ciblée sur les enfants et de la vente de données d’enfants et d’adolescents ne s’applique qu’à ceux de moins de dix-huit ans. « Notre proposition étendra cette interdiction à tous les mineurs de moins de 18 ans. Si vous êtes un adolescent, vos données ne peuvent pas être vendues sans le consentement parental. Point final. »

Des protections contre les comportements nuisibles

Un élément central de l’initiative est un ensemble de sauvegardes visant à protéger les mineurs des comportements nuisibles ou manipulatoires de l’IA. Reed a déclaré que c’est « une préoccupation majeure pour les parents », en particulier en ce qui concerne les chatbots d’IA qui simulent des relations humaines. « Cette loi empêche de manipuler les enfants en créant une dépendance émotionnelle, en simulant des relations romantiques ou en faisant croire aux utilisateurs enfants qu’ils parlent à un humain. »

Lehane a renforcé ce point, faisant un lien direct entre les erreurs passées dans la technologie et l’opportunité présentée par l’IA générative. « Les leçons tirées de l’ère des médias sociaux sont importantes alors que nous avançons », a-t-il déclaré. « Cette fois, nous avons la chance de bien faire les choses dès le départ. C’est pourquoi nous nous tenons aux côtés de Common Sense Media à ce sujet. »

Rôle des autorités de régulation

Un composant critique de cette mise en œuvre est le rôle du Procureur Général de Californie, un aspect que les deux groupes ont souligné à plusieurs reprises. Lehane a noté que la décision d’OpenAI de soutenir la mesure a été en partie façonnée par une conversation entre le PDG Sam Altman et le Procureur Général de l’État l’automne dernier.

Reed a ajouté que les procureurs généraux ont été « les plus durs dans la mise en œuvre des règles » pour l’industrie technologique au cours des deux dernières décennies. En vertu de l’acte, le Procureur Général sera responsable de la rédaction des règles de mise en œuvre, de la supervision des audits et de l’émission de sanctions en cas de non-conformité.

Conclusion et prochaines étapes

Pour l’instant, la prochaine étape consistera à formaliser le comité de vote derrière le Parents & Kids Safe AI Act, que les groupes prévoient de enregistrer immédiatement. Bien que Common Sense Media dirigera le travail politique à Sacramento, le chemin du vote reste ouvert, offrant plusieurs voies pour l’adoption — que ce soit par le biais de la législation ou d’un vote en novembre. Si elle réussit, cette loi pourrait non seulement servir de norme californienne, mais aussi de modèle national pour la réglementation de l’IA avant qu’elle ne façonne une génération sans supervision.

Scroll to Top