Réglementation de l’IA en santé : enjeux et perspectives

Rendre la réglementation de l’IA effective dans le monde réel de la santé

Le 2 février 2026, le groupe de travail sur les sciences de la vie de UKAI a soumis une réponse à l’Agence des médicaments et des produits de santé (MHRA) concernant la réglementation de l’IA dans le domaine de la santé. Cette soumission a été informée par une table ronde qui a rassemblé des voix du NHS, des régulateurs, de l’industrie, des fournisseurs de technologie et des communautés professionnelles et politiques.

Un constat simple

L’IA dans le secteur de la santé est déjà réglementée. Les réglementations sur les dispositifs médicaux, la pharmacovigilance, la gouvernance clinique et les cadres de responsabilité professionnelle sont déjà en vigueur. La véritable question est de savoir comment ces mécanismes font face aux systèmes basés sur des logiciels qui évoluent avec le temps et qui floutent les lignes de responsabilité traditionnelles.

Quand le logiciel se comporte différemment du matériel

Une grande partie du système réglementaire est conçue autour de produits relativement statiques. Les systèmes basés sur l’IA sont différents. Ils peuvent se mettre à jour régulièrement, apprendre de nouvelles données ou être déployés de manière inattendue au moment de l’approbation. Les participants à la table ronde ont exploré comment les cadres existants sont appliqués aux dispositifs médicaux basés sur des logiciels et activés par l’IA.

Proportionnalité des risques

Un thème récurrent a été l’importance de la proportionnalité basée sur le risque. Tous les systèmes d’IA ne sont pas créés égaux, et toutes les utilisations n’ont pas les mêmes implications. Les systèmes soutenant des tâches administratives ou des décisions opérationnelles à faible risque soulèvent des questions réglementaires très différentes de celles qui influencent le diagnostic, le traitement ou la prise de décision clinique. Ne pas faire de distinction ralentit l’innovation dans des domaines moins dangereux.

La surveillance ne s’arrête pas au déploiement

Un autre point de discussion était ce qui se passe après qu’un système d’IA est mis en service. La surveillance des performances, la gestion des mises à jour et l’identification des problèmes émergents sont essentielles, mais souvent mal gérées. Les concepts de vigilance existants peuvent servir de point de départ, mais il est crucial de les adapter aux systèmes qui peuvent changer de manière incrémentale.

Clarté des responsabilités

La responsabilité tout au long du cycle de vie de l’IA est une préoccupation constante. Les fabricants, les organisations de santé et les cliniciens ont des rôles définis, mais ceux-ci peuvent devenir flous lorsque les systèmes sont adaptatifs. Une allocation claire des responsabilités est essentielle pour la responsabilité et pour instaurer la confiance. Les cliniciens doivent savoir ce dont ils sont responsables.

Réglementation comme conversation continue

La soumission à la MHRA et la table ronde qui l’accompagne constituent une évaluation pratique de la manière dont l’IA est actuellement réglementée et utilisée dans le secteur de la santé. Pour le groupe de travail sur les sciences de la vie de UKAI, ce travail représente un point de continuité plutôt qu’une conclusion. L’avenir de l’IA dans le NHS ne sera pas déterminé par l’existence de la réglementation, mais par son application dans des contextes qui reflètent réellement le fonctionnement de la santé.

Scroll to Top