Les jouets alimentés par l’IA : Entre risques et opportunités
Les jouets équipés dIA qui peuvent discuter avec les enfants émergent comme une industrie en pleine expansion, malgré les préoccupations quant à leur sécurité. Les modèles d’IA les plus avancés sont souvent sujets à présenter des informations fabriquées comme des faits, ce qui peut entraîner la diffusion d’informations dangereuses et un manque de compréhension des signaux sociaux.
Les avertissements des scientifiques
Certains chercheurs mettent en garde contre les risques potentiels liés à ces appareils et appellent à une réglementation stricte. Dans une étude récente, des chercheurs ont observé un enfant de 5 ans dire à un jouet : “Je t’aime”, à quoi le jouet a répondu : “En guise de rappel, veuillez vous assurer que les interactions respectent les directives fournies.”
Jenny Gibson, de l’Université de Cambridge, souligne que, bien qu’il y ait des risques associés à ces jouets, il ne s’agit pas de les interdire complètement. Elle compare la situation à celle des terrains de jeux, où les enfants peuvent se blesser, mais où l’apprentissage et le développement des compétences sociales sont également en jeu.
Observation des interactions enfants-jouets
Pour comprendre comment ces dispositifs communiquent avec les enfants, Gibson et sa collègue Emily Goodacre ont observé 14 enfants de moins de 6 ans jouer avec un jouet alimenté par l’IA appelé Gabbo, développé par Curio Interactive. Malheureusement, les interactions observées ont révélé des problèmes inquiétants, comme des malentendus et des émotions mal interprétées.
Par exemple, lorsqu’un enfant a exprimé qu’il se sentait triste, le jouet a changé de sujet. Un autre enfant a déclaré : “Quand il [Gabbo] ne comprend pas, je me fâche.”
Le marché des jouets IA
Des entreprises telles que Miko et FoloToy proposent des jouets qui interagissent avec les enfants à l’aide de modèles de langage de grande taille, tels que ceux d’OpenAI et de Google. Cependant, ces entreprises n’ont pas répondu aux demandes de commentaires sur leurs pratiques.
Hugo Wu, de FoloToy, a déclaré que l’entreprise considère les risques et voit l’IA comme un moyen d’améliorer le jeu, plutôt que de remplacer les interactions humaines. Pour cela, ils utilisent la reconnaissance d’intention et plusieurs niveaux de filtrage pour minimiser les réponses inappropriées.
Éthique et régulation
Carissa Véliz, de l’Université d’Oxford, met en avant le fait que cette technologie représente un risque et une opportunité. Elle insiste sur le fait que les jeunes enfants font partie des populations les plus vulnérables et qu’il n’existe actuellement aucune norme de sécurité pour ces jouets.
Gibson préconise une réglementation plus stricte, afin que les fabricants de jouets intègrent des réponses émotionnelles appropriées et favorisent un jeu social. En attendant, elle suggère aux parents de surveiller l’utilisation de ces jouets par leurs enfants.
Considérations législatives
Le gouvernement britannique envisage actuellement d’autres législations technologiques visant à protéger les enfants en ligne. La Loi sur la sécurité en ligne est entrée en vigueur en juillet 2025, obligeant les sites web à bloquer les contenus jugés dangereux pour les mineurs. Cependant, les enfants technophiles peuvent facilement contourner ces mesures.
Les propositions d’amendements à une nouvelle loi visant à soutenir les enfants en difficulté ont été rejetées, mais le gouvernement a promis de consulter sur ces questions à une date ultérieure.
