Écart entre la législation sur l’IA et la réalité des patients en santé

Analyse du fossé entre le droit à l’explication en matière d’IA et la réalité des patients dans le secteur de la santé

(Toronto, 23 mars 2026) JMIR Publications a annoncé la publication d’un article important dans sa section News and Perspectives, qui examine les complexités légales et éthiques du droit à l’explication pour les patients à l’ère de l’intelligence artificielle. Cet article explore une tension critique : bien que l’Acte sur l’IA de l’Union Européenne fournisse une base légale pour la transparence, la réalité technique et clinique des explications significatives reste largement indéfinie.

Le paradoxe de la transparence de l’IA clinique

À mesure que les systèmes d’IA à haut risque deviennent standards dans l’imagerie médicale et le diagnostic, les patients sont de plus en plus en droit de demander : « Pourquoi l’ordinateur a-t-il conclu cela ? » Cependant, l’opacité des algorithmes avancés laisse souvent même les cliniciens les plus expérimentés incapables de fournir une réponse à la fois techniquement précise et pratiquement utile pour le patient.

Les obstacles aux cadres légaux actuels

L’analyse met en évidence plusieurs obstacles significatifs qui empêchent les cadres légaux actuels, tels que l’Acte sur l’IA de l’UE et le RGPD, de se traduire par de meilleurs soins aux patients :

  • Le compromis d’interprétabilité : Les modèles d’IA les plus précis fonctionnent souvent grâce à des millions de paramètres difficiles à retracer par l’humain. Forcer des modèles plus simples et explicables pourrait potentiellement sacrifier l’exactitude diagnostique, créant un conflit direct avec la sécurité des patients.
  • Biais d’automatisation : Des recherches indiquent que des suggestions incorrectes d’IA peuvent entraîner des cliniciens vers un diagnostic erroné, peu importe leur niveau d’expérience.
  • La barrière d’alphabétisation : Entre 22 % et 58 % des citoyens de l’UE rapportent des difficultés à comprendre les informations de santé, ce qui peut conduire à une surcharge cognitive plutôt qu’à un consentement éclairé.

Passer de la conformité à l’efficacité

L’article plaide pour un changement de paradigme : passer d’une approche de conformité à une approche axée sur la clarté pertinente pour la décision. Les experts suggèrent qu’une explication véritablement utile pour le patient doit aborder ce que le système recommande, son niveau de confiance et les lacunes de performance connues pour des populations spécifiques.

Pour combler ce fossé, le rapport appelle à :

  • Partenariats de co-conception : Les développeurs doivent tester les systèmes d’explication avec de véritables patients et des défenseurs pour s’assurer qu’ils répondent aux besoins du monde réel.
  • Soutien institutionnel : Les systèmes de santé doivent allouer un temps spécifique pour les discussions sur l’IA et former le personnel à naviguer dans ces conversations complexes.
  • Normes de compréhension : Les décideurs politiques devraient prioriser l’alphabétisation numérique en santé et développer des normes mesurant si un patient peut réellement utiliser les informations fournies pour faire un choix.

« L’Acte sur l’IA de l’UE fournit la base légale, mais la capacité de fournir une explication qu’un patient peut réellement utiliser est façonnée par des forces que la loi seule ne peut régir, » conclut le rapport. « Ce dont les patients ont besoin maintenant, ce sont des réponses qu’ils peuvent utiliser. »

Scroll to Top