Mesures pour protéger les enfants face aux chatbots d’IA en Californie

Mesure californienne pour protéger les enfants utilisant des chatbots d’IA

(TNS) — Un groupe de défense des droits des enfants s’associe à OpenAI pour promouvoir une initiative de vote à l’échelle de l’État, qui serait, selon eux, la mesure de sécurité en matière d’intelligence artificielle la plus complète pour les enfants aux États-Unis.

Si la mesure figure sur le bulletin de vote en novembre et si les électeurs californiens l’approuvent, la Loi sur la sécurité des parents et des enfants en matière d’IA exigerait des entreprises qu’elles adoptent un ensemble d’exigences visant à protéger les mineurs des effets potentiellement nuisibles associés à l’utilisation de l’IA. Elle autoriserait également le procureur général de l’État à faire appliquer ces règles.

Un besoin urgent de protections

« À ce moment décisif pour l’IA, nous ne pouvons pas reproduire la même erreur qu’avec les réseaux sociaux, lorsque les entreprises ont utilisé nos enfants comme cobayes, alimentant ainsi une crise de santé mentale chez les jeunes aux États-Unis et dans le monde », a déclaré James Steyer, fondateur et PDG de Common Sense Media.

« Les enfants et les adolescents ont besoin de garde-fous pour l’IA maintenant », a-t-il ajouté. « C’est pourquoi nous explorerons toutes les voies, de la législation au bulletin de vote. »

Incidents tragiques et préoccupations croissantes

Le besoin de protections en ligne pour les enfants a été accentué par des incidents tragiques, comme le décès d’Adam Raine, un adolescent de 16 ans de Californie du Sud, dont les parents ont poursuivi OpenAI, alléguant que leur fils avait été influencé par le chatbot de ChatGPT avant de se suicider l’année dernière.

Exigences de la loi proposée

La Loi sur la sécurité des parents et des enfants en matière d’IA exigerait que les entreprises d’IA déterminent si un utilisateur est un mineur en utilisant des technologies de vérification d’âge. Elle empêcherait les enfants et les adolescents de devenir dépendants émotionnellement des systèmes d’IA ou de croire qu’ils interagissent avec des humains.

De plus, elle imposerait des mesures de sécurité pour empêcher les mineurs d’accéder à des contenus générés par l’IA qui promeuvent l’automutilation, les troubles alimentaires, la violence et des actes sexuels explicites. Elle interdirait également la publicité ciblant les mineurs, interdirait la vente de données sur un mineur sans le consentement parental, et donnerait aux parents le contrôle pour surveiller ou limiter l’utilisation de l’IA par leurs enfants, en recevant des alertes en cas de signes d’automutilation.

Audits et responsabilités

En outre, la loi exigerait que les entreprises d’IA subissent des audits de sécurité indépendants et réalisent des évaluations annuelles des risques pour la sécurité des enfants. Le procureur général serait également habilité à enquêter et à imposer des sanctions financières aux entreprises.

« Nous considérons cela comme des ceintures de sécurité sociétales pour l’ère de l’IA », a déclaré Steyer lors d’un appel avec des journalistes ce mois-ci.

Implications pour l’avenir

OpenAI a exprimé l’espoir que les protections décrites dans l’initiative de vote ne soient pas seulement adoptées en Californie, mais qu’elles servent de modèle pour d’autres États et même le gouvernement fédéral. « À la fin de la journée, cela parle vraiment d’un effort pour défendre le bien commun », a déclaré Chris Lehane, responsable des affaires mondiales chez OpenAI.

La Loi sur la sécurité des parents et des enfants en matière d’IA représente la fusion de deux initiatives de vote précédentes introduites l’année dernière — l’une par Common Sense Media et l’autre par OpenAI. Les représentants des deux organisations ont décidé de collaborer sur une seule proposition plutôt que de confondre les électeurs avec des mesures concurrentes.

Les partisans de l’initiative ont jusqu’au 24 juin pour recueillir les centaines de milliers de signatures nécessaires pour inscrire la proposition sur le bulletin de novembre.

Scroll to Top