Vers une IA responsable pour la santé mentale et le bien-être : une voie à suivre
Le 29 janvier 2026, plus de 30 experts internationaux en intelligence artificielle, santé mentale, éthique et politiques publiques se sont réunis pour un atelier en ligne organisé par le Centre d’Éthique Numérique de Delft (DDEC) à l’Université de Technologie de Delft. Cet événement pré-sommet officiel du Sommet sur l’Impact de l’IA en Inde 2026, soutenu par l’Organisation Mondiale de la Santé (OMS), a rassemblé chercheurs, décideurs, cliniciens et défenseurs.
Dr Alain Labrique, directeur du Département des Données, Santé Numérique, Analytique et IA de l’OMS, a souligné : “À mesure que l’IA interagit de plus en plus avec les gens dans des moments de vulnérabilité émotionnelle, nous devons nous assurer que ces systèmes sont conçus et gouvernés avec la sécurité, la responsabilité et le bien-être humain comme priorité.”
Les Défis de l’IA Générative
Parmi ces défis, l’utilisation croissante des outils d’IA générative, qui ne sont ni conçus ni testés pour la santé mentale, pour le soutien émotionnel, en particulier par les jeunes, représente des risques potentiellement graves. “Nous sommes à un tournant critique”, a déclaré Sameer Pujari, responsable de l’IA à l’OMS. “Le rythme d’adoption de l’IA dans la vie quotidienne des gens a largement dépassé les investissements dans la compréhension de son impact sur la santé mentale.”
La nécessité d’une action coordonnée et de ressources dédiées des secteurs public et privé est donc devenue impérative.
Collaboration Interdisciplinaire
Dr Kenneth Carswell, du Département des Maladies Non-Communicables et de la Santé Mentale de l’OMS, a ajouté : “Minimiser les risques de l’IA générative pour la santé mentale tout en maximisant les bénéfices nécessite d’unir les voix des personnes les plus touchées, l’expertise clinique et de recherche, ainsi que des cadres de gouvernance et de réglementation.”
Recommandations Clés
L’atelier a distillé ces discussions en trois recommandations principales :
- Reconnaître l’utilisation de l’IA générative comme une préoccupation de santé mentale publique, avec des réponses appropriées de la part des gouvernements, des systèmes de santé et de l’industrie.
- Intégrer la santé mentale dans les évaluations d’impact et le suivi des solutions d’IA pour mieux comprendre leurs effets sur les déterminants de la santé.
- Co-concevoir les outils d’IA utilisés pour le soutien en santé mentale avec des experts en santé mentale et des personnes ayant une expérience vécue.
Les Centres de Collaboration : un Pilier Stratégique pour une IA Responsable
Plus largement, l’atelier a illustré comment le mécanisme des Centres de Collaboration de l’OMS est devenu un pilier critique pour mettre en œuvre la vision de l’OMS pour une IA responsable en santé. Grâce à ce mécanisme, l’OMS mobilise une expertise académique de classe mondiale et réunit divers acteurs internationaux pour générer des recommandations basées sur des preuves.
Vers un Consortium Global
L’OMS établit un Consortium de Centres de Collaboration sur l’IA pour la Santé, un réseau d’institutions de premier plan à travers toutes les régions de l’OMS, pour aider les États Membres dans l’adoption responsable de l’IA. Une pré-réunion des membres candidats du consortium a eu lieu du 17 au 19 mars 2026 à l’Université de Technologie de Delft, où les institutions se sont alignées sur des priorités communes et ont convenu de mécanismes de collaboration initiaux.
