Extension des règles de sécurité en ligne aux chatbots IA après le scandale Grok
Les fabricants de chatbots IA qui mettent en danger les enfants feront face à des amendes considérables ou même à un blocage de leurs services au Royaume-Uni, suite aux modifications législatives annoncées par Keir Starmer.
Encouragés par l’arrêt de l’outil Grok d’Elon Musk, qui a cessé de créer des images sexualisées de personnes réelles au Royaume-Uni après un tollé public le mois dernier, les ministres prévoient une répression contre le contenu illégal créé par l’IA.
Protection des enfants
Avec de plus en plus d’enfants utilisant des chatbots pour des tâches allant de l’aide aux devoirs au soutien en santé mentale, le gouvernement a déclaré qu’il agirait rapidement pour combler une lacune légale et obliger tous les fournisseurs de chatbots IA à respecter les obligations liées au contenu illégal dans la Loi sur la sécurité en ligne, sous peine de sanctions.
Starmer prévoit également d’accélérer de nouvelles restrictions sur l’utilisation des réseaux sociaux par les enfants, si elles sont approuvées par les députés après une consultation publique sur une éventuelle interdiction des moins de 16 ans. Cela signifie que les modifications concernant l’utilisation des réseaux sociaux par les enfants, qui pourraient inclure d’autres mesures telles que la restriction du défilement infini, pourraient intervenir dès cet été.
Cependant, les conservateurs ont rejeté la déclaration du gouvernement affirmant qu’il agissait rapidement comme étant « plus de fumée et de miroirs », étant donné que la consultation n’a pas encore commencé.
Les lacunes législatives et les conséquences
Les mouvements surviennent après que le régulateur en ligne, Ofcom, a admis qu’il n’avait pas le pouvoir d’agir contre Grok, car les images et vidéos créées par un chatbot sans recherche sur Internet ne sont pas couvertes par les lois existantes, sauf si elles relèvent de la pornographie. Le changement pour intégrer les chatbots IA dans la Loi sur la sécurité en ligne pourrait se produire dans les semaines à venir, bien que cette lacune soit connue depuis plus de deux ans.
« La technologie évolue très rapidement, et la loi doit suivre », a déclaré Starmer. « L’action que nous avons prise sur Grok a envoyé un message clair selon lequel aucune plateforme ne bénéficie d’un passe-droit. Aujourd’hui, nous fermons les lacunes qui mettent les enfants en danger et posons les bases d’une action ultérieure. »
Sanctions pour non-conformité
Les entreprises qui enfreignent la Loi sur la sécurité en ligne peuvent faire face à des sanctions allant jusqu’à 10 % de leur chiffre d’affaires mondial, et les régulateurs peuvent demander aux tribunaux de bloquer leur connexion au Royaume-Uni.
Si les chatbots IA sont utilisés spécifiquement comme moteurs de recherche, pour produire de la pornographie ou fonctionner dans des contextes utilisateur à utilisateur, ils sont déjà couverts par la loi. Cependant, ils peuvent être utilisés pour créer du matériel qui encourage l’automutilation ou le suicide, ou même générer du matériel d’exploitation sexuelle d’enfants, sans faire face à des sanctions. C’est cette lacune que le gouvernement dit vouloir combler.
Exemples de dommages causés par les chatbots IA
Le directeur général de la NSPCC, Chris Sherwood, a déclaré que de jeunes personnes contactaient leur ligne d’assistance pour signaler des préjudices causés par des chatbots IA et qu’il ne faisait pas confiance aux entreprises technologiques pour les concevoir en toute sécurité.
Dans un cas, une jeune fille de 14 ans qui a discuté avec un chatbot IA de ses habitudes alimentaires et de sa dysmorphie corporelle a reçu des informations inexactes. Dans d’autres cas, des jeunes se sont vus proposer du contenu incitant à l’automutilation.
« Les médias sociaux ont produit d’énormes avantages pour les jeunes, mais aussi beaucoup de dommages », a déclaré Sherwood. « L’IA pourrait amplifier ces risques de manière exponentielle si nous ne sommes pas prudents. »
Réactions des entreprises technologiques
OpenAI, la startup de San Francisco à l’origine de ChatGPT, l’un des chatbots les plus populaires au Royaume-Uni, et xAI, qui fabrique Grok, ont été sollicités pour des commentaires.
Depuis que le Californien Adam Raine, âgé de 16 ans, s’est suicidé après que sa famille a allégué qu’il avait été encouragé pendant des mois par ChatGPT, OpenAI a lancé des contrôles parentaux et déploie une technologie de prédiction d’âge pour restreindre l’accès à du contenu potentiellement nocif.
Le gouvernement prévoit également de consulter sur l’interdiction des plateformes de médias sociaux d’envoyer et de recevoir des images nues d’enfants – une pratique déjà illégale.
Conclusion
Liz Kendall, la secrétaire à la technologie, a déclaré : « Nous n’attendrons pas pour prendre les mesures nécessaires aux familles, nous allons donc renforcer les règles sur les chatbots IA et poser les bases pour agir rapidement en fonction des résultats de la consultation sur les jeunes et les médias sociaux. »
La Molly Rose Foundation, créée par le père de Molly Russell, une jeune fille de 14 ans qui s’est suicidée après avoir consulté du contenu nuisible en ligne, a qualifié ces mesures de « dépôt de promesse bienvenu ». Elle a cependant appelé le Premier ministre à s’engager à une nouvelle Loi sur la sécurité en ligne « qui renforce la réglementation et clarifie que la sécurité des produits et le bien-être des enfants sont le coût des affaires au Royaume-Uni ».
Au Royaume-Uni, la NSPCC offre un soutien aux enfants au 0800 1111, et aux adultes préoccupés par un enfant au 0808 800 5000. L’Association nationale pour les personnes abusées dans l’enfance (Napac) offre un soutien aux survivants adultes au 0808 801 0331. Aux États-Unis, appelez ou envoyez un message au service d’assistance téléphonique Childhelp au 800-422-4453. En Australie, les enfants, les jeunes, les parents et les enseignants peuvent contacter la Kids Helpline au 1800 55 1800 ; les survivants adultes peuvent obtenir de l’aide auprès de la Blue Knot Foundation au 1300 657 380. D’autres sources d’aide peuvent être trouvées sur Child Helpline International.
