OpenAI soutient la mesure sur la sécurité des IA pour les jeunes en Californie

OpenAI soutient la mesure de vote sur la sécurité des IA pour les jeunes en Californie

OpenAI a confirmé son soutien pour une mesure de vote proposée en Californie concernant la sécurité des IA pour les jeunes. Cette décision fait suite à des déclarations de dirigeants de l’entreprise sur LinkedIn, où ils ont détaillé de nouvelles exigences relatives aux contrôles parentaux, à l’assurance d’âge, et aux protections pour les enfants utilisant des outils d’IA.

La société affirme que cette législation proposée reflète un changement plus large vers des normes de sécurité pour les enfants, alors que l’IA devient de plus en plus utilisée par un public jeune.

Exigences spécifiques de la mesure proposée

Dans un post LinkedIn, Chris Lehane, directeur des affaires mondiales chez OpenAI, a décrit le partenariat de l’entreprise avec Common Sense Media et leur soutien commun pour cette mesure. Lehane a positionné la proposition en réponse aux préoccupations croissantes concernant l’interaction des enfants avec les outils d’IA et le manque de protections cohérentes sur les différentes plateformes.

Les exigences de la mesure comprennent :

  • Utilisation d’outils d’estimation d’âge préservant la vie privée pour distinguer les enfants des adultes.
  • Offre de contrôles parentaux faciles à utiliser, y compris des limites de temps et des protections renforcées pour les enfants de moins de 13 ans.
  • Développement de garanties pour éviter les sorties qui encouragent des comportements comme la dépendance émotionnelle et les interactions sexualisées.
  • Établissement de protocoles clairs de réponse aux crises pour les risques de auto-mutilation et de suicide.
  • Réalisation d’audits de sécurité pour enfants de manière indépendante, avec des rapports publics.

Mesures ciblant les outils d’IA utilisés par les mineurs

La Loi sur une IA sécurisée pour les parents et les enfants s’appliquerait aux chatbots d’IA et aux systèmes simulant la conversation, y compris les outils déjà utilisés par les enfants et les adolescents. Selon la proposition, les entreprises seraient tenues de :

  • Distinguer les utilisateurs adultes des mineurs.
  • Interdire la publicité ciblée vers les enfants.
  • Limiter la collecte, la vente ou le partage des données des enfants sans le consentement parental.

Des exigences supplémentaires incluent des garanties pour empêcher les systèmes d’IA de promouvoir l’auto-mutilation, les troubles alimentaires, la violence ou un comportement sexuellement explicite, ainsi que des restrictions sur les compagnons d’IA pour les utilisateurs de moins de 18 ans. La mesure introduirait également des mécanismes d’application, notamment des audits indépendants, des évaluations de risques annuelles, et une supervision par le procureur général de Californie, avec des sanctions financières en cas de non-conformité.

Liens avec les objectifs plus larges de culture de l’IA

Dans son post LinkedIn, Lehane a lié les garanties proposées à des conversations plus larges sur la culture de l’IA et l’adoption à long terme. Il a déclaré que les enfants et les adolescents d’aujourd’hui sont la première génération à grandir avec l’IA.

Il a soutenu que, bien que la culture de l’IA soit essentielle pour la participation économique future, des protections doivent être mises en place pour que les familles et les éducateurs se sentent confiants en permettant aux enfants d’utiliser ces outils. Lehane a également mentionné les récentes mises à jour d’OpenAI concernant leur spécification de modèle interne, y compris l’ajout de principes pour les moins de 18 ans, et la collaboration continue avec l’American Federation of Teachers autour de l’utilisation de l’IA en classe.

« Bien qu’OpenAI croie fermement au droit à la vie privée des adultes utilisant des outils d’IA, et à la liberté d’utiliser ces outils dans des limites de sécurité larges, lorsqu’il s’agit des adolescents, nous plaçons la sécurité au-dessus de la vie privée et de la liberté », a ajouté Lehane.

Scroll to Top