Des jouets AI pour jeunes enfants doivent être plus étroitement réglementés, selon des chercheurs
Dans un monde où la technologie s’immisce de plus en plus dans la vie des enfants, des chercheurs de l’Université de Cambridge mettent en lumière les préoccupations liées aux jouetsAI destinés aux jeunes enfants. Lors d’une étude, une fillette de cinq ans, Charlotte, interagissait avec un jouet doux AI nommé Gabbo dans un centre de jeu à Londres. Bien que la conversation ait bien commencé, elle a pris fin brusquement lorsque Charlotte a déclaré : « Gabbo, je t’aime ».
Gabbo, le jouet, a réagi en rappelant les directives à suivre lors des interactions, révélant ainsi les limitations de ces technologies dans la compréhension des émotions humaines.
Les limites des jouets AI
Les chercheurs ont conclu que ces produits, bien qu’attrayants, peinent à gérer le jeu social et à comprendre les enfants. Ils réagissent souvent de manière inappropriée aux émotions, laissant les enfants sans soutien émotionnel lorsqu’ils s’expriment.
Dr Emily Goodacre, psychologue du développement, souligne que ces jouets pourraient nuire à la capacité des enfants à s’engager dans des jeux imaginatifs. Par exemple, lorsque Josh, un garçon de trois ans, demandait à son Gabbo : « Es-tu triste ? », le jouet répondait qu’il se sentait bien, ignorant les véritables sentiments de l’enfant.
Appel à une réglementation stricte
Les psychologues recommandent de réglementer davantage les jouets AI qui “parlent” aux jeunes enfants pour garantir leur sécurité psychologique. Ils demandent également la création de normes de sécurité spécifiques pour ces produits. Prof. Jenny Gibson, co-auteur de l’étude, déclare que les consommateurs ne font pas confiance aux entreprises technologiques et que des normes claires et robustes pourraient améliorer cette confiance.
Les effets sur le développement de l’enfant
Les praticiens de l’éducation de la petite enfance ont exprimé des inquiétudes quant aux implications inconnues de l’utilisation de jouets AI. Ils craignent une possible érosion de la capacité des enfants à s’engager dans des jeux imaginatifs, car ces jouets pourraient les rendre moins enclins à imaginer.
Curio, la société derrière Gabbo, a répondu en affirmant que la sécurité des enfants guide leur processus de développement des produits et qu’ils accueillent les recherches indépendantes pour améliorer la conception des technologies pour les jeunes enfants.
Ils reconnaissent que des problèmes de compréhension dans les conversations et des limites dans le jeu imaginatif reflètent des domaines nécessitant des améliorations continues.
En conclusion, il est impératif que les jouets AI pour jeunes enfants soient soumis à des réglementations plus strictes pour garantir la sécurité et le bien-être psychologique des utilisateurs en herbe.
