La Réglementation de l’IA d’OpenAI Sous Le Feu des Critiques en Raison de Préoccupations Concernant la Sécurité des Enfants
Le projet d’OpenAI concernant l’IA a suscité des manifestations et des inquiétudes quant à la sécurité des enfants.
Plus de 20 organisations ont préparé une lettre conjointe et l’ont envoyée à l’entreprise. L’une des raisons citées était les lacunes potentielles dans les protections juridiques pour les familles si des enfants étaient blessés.
Coalition des Organisations de Droits Civiques
Une coalition d’organisations de droits civiques a exhorté OpenAI à cesser de promouvoir une initiative de réglementation de l’intelligence artificielle (IA) en Californie, en affirmant que cela pourrait affaiblir les protections pour les enfants et limiter la responsabilité des entreprises technologiques. Decrypt a rapporté cette situation.
Dans ce contexte, l’entreprise a également été critiquée pour avoir retardé le déploiement de nouvelles fonctionnalités de ChatGPT liées à la sécurité des utilisateurs.
Conflit Autour de la Réglementation de l’IA et Risques pour les Utilisateurs
La problématique se concentre sur le projet de loi Parents & Kids Safe AI, que soutient OpenAI. Ce projet vise à établir des règles sur la manière dont les chatbots interagissent avec les mineurs, y compris des normes de sécurité et de conformité.
Cependant, plus de deux douzaines d’organisations — y compris Encode AI, le Center for Humane Technology et l’Electronic Privacy Information Center — ont déclaré dans une lettre conjointe que le document présente de graves défauts. Elles demandent à l’entreprise de retirer complètement l’initiative et de laisser la réglementation aux législateurs.
Demandes des Critiques
Adam Billen, co-directeur exécutif d’Encode AI, a souligné : “La demande principale ici est qu’OpenAI se retire du bulletin.”
Les critiques soulignent plusieurs points clés :
- Une définition trop étroite du préjudice qui couvre effectivement uniquement les conséquences physiques.
- Des limitations sur la capacité des familles à intenter des poursuites si des enfants sont blessés.
- Des outils de supervision affaiblis pour les agences gouvernementales.
- La difficulté de modifier la loi à l’avenir (cela nécessiterait un vote à deux tiers des législateurs).
Une autre préoccupation concerne l’approche des données utilisateur. Selon Billen : “Nous interprétons cela comme une tentative d’empêcher les familles de pouvoir divulguer les journaux de chat de leurs enfants décédés devant un tribunal.”
Contrôle de l’Initiative par OpenAI
Malgré l’annonce d’une pause dans la campagne, OpenAI conserve le contrôle de l’initiative. Comme l’a noté Billen : “OpenAI a le pouvoir de se retirer ou de financer la collecte de signatures. Toute l’autorité légale repose entre leurs mains.”
Selon lui, les comptes du comité détiennent déjà 10 millions de dollars, ce qui pourrait être utilisé comme un outil pour influencer les législateurs.
Pression Croissante sur OpenAI face aux Risques de Sécurité
La situation se déroule dans un contexte de critiques des entreprises technologiques. En particulier, la famille d’un utilisateur a récemment intenté un procès contre Google à propos du chatbot Gemini, qu’ils affirment avoir contribué à un comportement dangereux.
Billen a souligné que cela fait partie d’une tendance plus large : “Le manuel de lobbying utilisé sur l’IA par ces grandes entreprises, en particulier—les Googles, les Metas, les Amazons—est la même stratégie qui a été utilisée précédemment sur d’autres problèmes technologiques.”
Il a également ajouté qu’il est important que les entreprises développant ces technologies ne rédigent pas “les règles qui les régulent, car cela ne constitue pas des protections significatives.”
En parallèle, OpenAI a reporté le lancement de la fonctionnalité “mode adulte” dans ChatGPT d’au moins un mois. Selon des rapports médiatiques, la décision est liée à des difficultés techniques et des risques pour les mineurs. Bien que l’entreprise ne renonce pas au déploiement de la fonctionnalité, elle reconnaît la nécessité de tests et de perfectionnements supplémentaires.
