AI dans la santé : Gouvernance, équité et innovation responsable en Inde
MUMBAI : La conversation sur l’intelligence artificielle dans le secteur de la santé est souvent dominée par de grandes promesses — diagnostics plus rapides, accès à grande échelle, médecine de précision à l’échelle de la population. Cependant, lors du dialogue inaugural d’hiver sur RAISE (AI responsable pour l’excellence synergique en santé) à l’Université d’Ashoka, l’accent a été mis sur des questions plus difficiles : pour qui l’IA fonctionne-t-elle réellement, qui est exclu et comment gouverner ce que nous ne comprenons pas encore pleinement.
Organisé par le Koita Centre for Digital Health à l’Université d’Ashoka (KCDH-A), en partenariat avec NIMS Jaipur et avec l’OMS SEARO comme hôte technique aux côtés de l’ICMR-NIRDHS et de la Fondation Gates, ce dialogue de deux jours a servi d’événement pré-sommet officiel du Sommet AI Impact 2026. Il s’agissait également de la première édition d’une série de quatre dialogues nationaux RAISE prévus à travers l’Inde ce mois-ci, avec un thème axé sur l’ IA en santé : Politique et Gouvernance.
Le fossé entre capacité technique et préparation institutionnelle
Un fil conducteur lors des sessions a été le fossé entre la capacité technique et la préparation institutionnelle. Le Dr Karthik Adapa, conseiller régional pour la santé numérique à l’OMS, a averti contre ce qu’il a appelé le problème persistant de la “pilotitis” — la tendance des solutions de santé numérique à rester coincées dans des pilotes expérimentaux sans jamais passer à des systèmes publics. Des cadres comme SALIENT, a-t-il soutenu, sont essentiels précisément parce qu’ils obligent les praticiens à penser au-delà des modèles et des métriques, vers l’intégration, l’évaluation et l’utilisation à long terme.
Optimisation et équité
Cette tension entre optimisation et équité a été soulevée à plusieurs reprises. Dans ses remarques d’ouverture, le Dr Anurag Agrawal a posé une question qui a résonné dans les salles de conférence : “Choisiriez-vous un modèle avec une précision moyenne plus élevée, mais de mauvaises performances pour les femmes, ou un modèle avec une précision inférieure qui montre l’équité des résultats ?” Son propos plus large était capturé dans une phrase qui est devenue une sorte de refrain : “IA pour la santé, pas santé pour l’IA.”
Cas d’études et défis
Les panels qui ont suivi ont montré à quel point cette traduction des principes à la pratique est compliquée. Des études de cas sur le dépistage de la tuberculose et la détection du cancer à la surveillance de la santé maternelle à travers les États indiens ont mis en lumière à la fois la promesse et la fragilité — pipelines de données fragiles, infrastructure inégale, incertitude réglementaire et biais social profondément ancré que les algorithmes peuvent facilement reproduire.
Discussions sur la santé mentale
Les discussions sur la santé mentale étaient particulièrement prudentes. Comme l’a observé le Dr Prabha Chand, les grands modèles de langage sont “optimisés pour l’engagement, pas pour les résultats cliniques”, tandis que le Dr Smruti Joshi a rappelé que “le jugement en santé mentale ne peut pas être entièrement automatisé.” Le défi, ont soutenu plusieurs panélistes, n’est pas de savoir si l’IA a un rôle, mais comment ce rôle est défini avec soin, surtout lorsqu’il s’agit de travailler avec des populations vulnérables.
Validation et responsabilité
La validation et la responsabilité ont également émergé comme centrales. Le Dr Mary-Anne Hartley a souligné que des données imparfaites produisent des modèles imparfaits, surtout dans des contextes aussi divers que ceux de l’Inde. La surveillance continue, la réduction des biais et les systèmes “humains dans la boucle”, ont soutenu les panélistes, doivent devenir la norme plutôt qu’une option.
Éthique et conception de l’IA
En réfléchissant aux implications plus larges, le Dr Anurag Agrawal est revenu sur le cœur éthique de la discussion : “Le véritable test de l’IA en santé n’est pas la précision maximale dans des conditions contrôlées, mais la performance équitable dans le monde réel. Si les systèmes d’IA fonctionnent bien en moyenne mais échouent pour les femmes ou les populations marginalisées, nous avons échoué à notre objectif. Nous devons concevoir l’IA pour la santé — et non plier la santé pour s’adapter à l’IA.”
Ce sentiment a été repris par le vice-chancelier Somak Raychaudhury, qui a noté que “l’IA responsable en santé ne peut pas être construite en silos… Les universités ont un rôle crucial à jouer — non seulement dans l’avancement de la recherche, mais dans la création de l’infrastructure intellectuelle et institutionnelle nécessaire pour garantir que l’IA serve le bien public, l’équité et la confiance à grande échelle.”
Dialogue soutenu
RAISE, comme l’a décrit Aradhita Baral, est destiné à être “une plateforme pour un dialogue soutenu plutôt que des conversations isolées.” Son expansion à l’IIT Delhi, à Bengaluru et à Hyderabad au cours des prochaines semaines suggère que le débat sur l’IA dans la santé en Inde passe enfin de l’hyperbole aux devoirs — de ce qui est possible à ce qui est responsable.
