Urgence d’agir face aux deepfakes et chatbots thérapeutes dans les écoles

AI : Les écoles doivent agir maintenant sur les deepfakes et les chatbots de thérapie

Les entreprises d’IA, telles qu’OpenAI, se sont retrouvées devant les tribunaux à plusieurs reprises en 2025, y compris dans des affaires intentées par des parents alléguant que ces outils ont contribué au suicide de leurs enfants adolescents.

Malgré ces affaires judiciaires, les entreprises d’IA continuent d’avancer sous le mantra de “donner aux gens ce qu’ils veulent”. Cela a conduit à des développements tels que la fonctionnalité “Cameo” de ChatGPT dans Sora 2, où les utilisateurs peuvent ajouter la ressemblance numérique d’une personne dans des scènes artificielles, et Grok d’Elon Musk, capable de générer des images et vidéos explicites et très réalistes.

Les gouvernements du monde entier s’efforcent maintenant de comprendre et de réguler les implications de ces outils. Mais les écoles ne peuvent pas se permettre d’attendre.

Une transparence totale

Je crois que l’IA, lorsqu’elle est utilisée de manière sensée, a un potentiel énorme pour soutenir et améliorer l’apprentissage. Elle peut renforcer la pensée critique et fournir un soutien individuel aux apprenants. En tant que responsable de l’IA dans mon école, je plaide souvent pour son utilisation raisonnée avec mes étudiants. Cependant, c’est précisément à cause de cette croyance que je ressens une énorme pression pour souligner la gravité des nouveaux risques de protection que ces technologies créent.

Deepfakes : un crime où tout le monde devient victime

La capacité de créer des images et des vidéos fausses n’est pas nouvelle. Ce qui est nouveau, c’est la facilité et la rapidité avec lesquelles cela peut désormais être fait. Les enfants, sans compétences techniques et sans logiciels coûteux, peuvent créer des vidéos réalistes de célébrités tenant des discours racistes ou faisant des choses ridicules en un clic.

Ne vous attendez pas à ce que les entreprises d’IA motivées par le profit se régulent elles-mêmes. Alors que les entreprises d’IA se battent encore en justice concernant la légalité, la décision a déjà été prise pour nos étudiants. Les réseaux sociaux ont transformé cela en divertissement, quelque chose à rire et à partager entre amis. Mais ce n’est pas divertissant pour la victime. Les gouvernements du monde entier s’efforcent maintenant d’appliquer des lois existantes et d’en introduire de nouvelles pour protéger les victimes et empêcher la propagation de tels matériels. En Australie, par exemple, des législations sont en cours de proposition, pouvant entraîner des peines de prison allant jusqu’à six ans pour le partage de tels contenus.

Ce qui est encore plus préoccupant, c’est que même s’ils en entendent parler, leur cortex préfrontal peu développé signifie que les enfants réagissent biologiquement rapidement et rationnalisent lentement les conséquences. La capacité de créer et de diffuser du matériel illégal et profondément dommageable depuis une chambre en quelques secondes est donc désastreuse. Ce que beaucoup d’adultes ne réalisent pas, et presque aucun adolescent, c’est que le partage de deepfakes peut également être un crime.

Les chatbots comme thérapeutes

Il y a deux ans, de nombreux enseignants de mon école riaient à l’idée que les gens se tourneraient vers des chatbots d’IA pour traiter des problèmes de santé mentale. Certains le font encore, mais ils ont tort. Une étude de Mental Health UK rapporte maintenant qu’un adulte sur trois a utilisé des chatbots pour soutenir sa santé mentale, et le chiffre est probablement encore plus élevé parmi les adolescents. Un outil disponible 24/7, infiniment patient et toujours compatissant est réconfortant.

Lorsque les enfants cessent de parler aux humains, ils cessent d’être protégés. Pour les adolescents vulnérables, cependant, cela devient déjà dangereux. L’IA fait beaucoup de choses, mais elle ne peut pas agir. Lorsque j’ai commencé à enseigner, on m’a appris que la première règle de protection est de ne jamais garder ses préoccupations pour soi. Signalez-les et suivez-les. C’est exactement ce que les chatbots d’IA ne font pas, et ne peuvent pas faire. Les faire signaler automatiquement les divulgations de protection créerait de graves problèmes de sécurité des données et de surveillance pour les entreprises qui les gèrent. Ainsi, ils restent silencieux. Ils gardent le secret.

En 2026, les enfants du monde entier se tourneront beaucoup moins vers ceux qui prennent soin d’eux pour obtenir de l’aide. Beaucoup ne parleront plus à leurs parents, à leur enseignant préféré ou au responsable de la protection de l’école. Au lieu de cela, ils compteront de plus en plus sur des chatbots ; des chatbots qui simulent simplement les soins et l’inquiétude.

La réponse que les écoles doivent apporter

Ne comptez pas sur les gouvernements. Ne vous attendez pas à ce que les entreprises d’IA motivées par le profit se régulent elles-mêmes. N’attendez pas que des rapports et des études apparaissent. La technologie évolue simplement trop rapidement.

Parlez à vos étudiants. Sensibilisez-les. Essayez de rééquilibrer les récits auxquels ils sont confrontés au quotidien sur les réseaux sociaux.

La capacité de créer et de répandre du matériel illégal et profondément dommageable depuis une chambre en quelques secondes est désastreuse. Mettre à jour une politique de protection ne suffit pas. Le message doit être délivré. Dans notre école, nous avons créé des vidéos percutantes mais axées sur les étudiants, modifié nos leçons de PSHE, organisé des assemblées scolaires et invité les parents à des réunions.

Sinon, les enfants deviennent à la fois le cas d’essai et le bouc émissaire des échecs du jugement adulte.

Scroll to Top