Lorsque l’IA décide de vos soins : les questions de gouvernance que chaque partie prenante devrait poser — et que personne ne pose
Une enquête a révélé qu’un outil d’IA utilisé par un assureur majeur a refusé plus de 300 000 demandes en deux mois. Ces refus ont été générés en quelques minutes — plus rapidement que n’importe quel examinateur humain ne pourrait lire un seul dossier. La plupart des patients n’ont jamais fait appel. Ils supposaient que l’algorithme savait quelque chose que leur médecin ne savait pas. Certains se sont simplement passés de soins. Cette supposition est la crise de gouvernance que personne n’a encore complètement nommée.
Un exemple alarmant
Un homme de 62 ans, ayant une condition cardiaque complexe documentée, s’est vu refuser une couverture pour une réhabilitation cardiaque spécialisée. Son cardiologue a jugé ce traitement cliniquement essentiel. Cependant, le système automatisé de son assureur a signalé que les codes de traitement ne répondaient pas aux critères de nécessité médicale. Il n’a reçu aucune explication indiquant si un médecin avait examiné son dossier ou si la décision avait été générée algorithmiquement en quelques secondes. Il a supposé que le système savait quelque chose que son cardiologue ne savait pas. Il n’a pas fait appel. Il faisait partie des plus de 80 % de patients qui ne le font jamais — et des moins de 0,2 % des refus qui auraient presque certainement été annulés s’il avait fait appel.
La question centrale
La question fondamentale est trompeusement simple : lorsqu’un patient n’est pas d’accord avec une décision de santé influencée par l’IA, qui est responsable — et quels droits le patient a-t-il réellement ? Comme l’a documenté l’Agence pour la recherche et la qualité des soins de santé en 2024, les questions sans réponse au cœur de l’IA dans les soins de santé sont exactement celles-ci : Que faire lorsque vous n’êtes pas d’accord avec un algorithme ? Qui assume la responsabilité d’accepter — ou de refuser — une recommandation de l’IA ? Nous y sommes déjà confrontés.
Les menaces pour la sécurité des patients
L’ECRI a classé la gouvernance insuffisante de l’IA comme la deuxième menace pour la sécurité des patients en 2025, notant que seulement 16 % des dirigeants d’hôpitaux en 2023 ont signalé une politique de gouvernance systémique pour l’utilisation de l’IA et l’accès aux données. Ce vide n’est pas théorique. C’est une réalité opérationnelle quotidienne dans laquelle les systèmes d’IA influencent les décisions cliniques et de couverture, tandis que les patients, les cliniciens et les régulateurs négocient encore qui est responsable de leur supervision.
Clarification des frontières
En février 2024, les CMS ont cherché à clarifier les frontières. Leur mémo FAQ a déclaré explicitement qu’un algorithme ne peut pas remplacer les circonstances médicales individuelles d’un patient — que l’IA peut aider aux décisions de couverture mais ne peut pas remplacer l’examen individualisé qu’exige la recommandation d’un médecin. Cette décision était significative. Cependant, elle n’a pas créé l’architecture opérationnelle pour l’appliquer. Connaître la règle existe et avoir un système qui empêche structurellement les violations de celle-ci sont deux choses entièrement différentes.
Personne ne possède ce problème
Cinq parties prenantes se trouvent au centre de chaque décision de soins influencée par l’IA — l’assureur, le fournisseur, le régulateur, le patient et la technologie elle-même. Aucun d’eux n’a accepté la responsabilité complète. Tous doivent commencer par la même question : quel est mon rôle lorsque l’algorithme se trompe ?
Questions à poser
Les assureurs doivent demander : L’IA de notre modèle prend-elle la décision finale, ou fournit-elle des informations à un examinateur humain qui exerce un jugement clinique indépendant avant que tout refus ne soit communiqué au patient ? Comme l’a rapporté Medical Economics, les CMS exigeront à partir de 2026 que les payeurs fournissent une raison spécifique pour chaque refus assisté par l’IA et publient des données d’approbation agrégées. Ce n’est pas un fardeau de rapport — c’est un cadre de responsabilité. Les organisations qui ne se dirigent pas déjà vers cela sont à la traîne.
Les fournisseurs doivent demander : Lorsque l’assistance à la décision clinique générée par l’IA contredit mon jugement, mon institution a-t-elle un protocole documenté pour enregistrer, escalader et résoudre ce désaccord ? La position politique de l’American College of Physicians de 2024 est sans ambiguïté : l’IA doit compléter la prise de décision des médecins, pas la remplacer. La question de gouvernance pour les fournisseurs est de savoir si leurs flux de travail reflètent structurellement ce principe — ou l’affirment simplement dans le langage politique.
Les patients doivent demander : Ai-je le droit de savoir quand un système d’IA a influencé une décision concernant mes soins, et ai-je un chemin clair pour faire appel ? La réponse varie selon l’État. L’endroit où vous vivez détermine actuellement quels droits vous détenez lorsque l’algorithme affecte vos soins.
Les régulateurs doivent demander : La “révision humaine significative” est-elle définie avec suffisamment de spécificité pour que les organisations ne puissent pas la satisfaire en acheminant des décisions à travers un humain qui valide à la hâte une sortie d’IA en quelques secondes ?
Étapes à suivre pendant que nous trouvons une solution
Aucune partie prenante n’a encore la réponse complète. Cela ne doit pas être une excuse pour l’inaction — c’est le contexte pour des étapes urgentes à court terme.
Chaque organisation déployant l’IA dans des décisions cliniques ou de couverture devrait exiger une piste d’audit générée par un humain pour chaque résultat influencé par l’IA — non pas comme un exercice de conformité, mais comme la base probante lorsque un patient conteste une décision. Chaque refus devrait porter une explication en langage clair indiquant si un modèle d’IA a été impliqué et quels sont les droits d’appel du patient. Chaque comité de gouvernance supervisant l’IA en santé devrait inclure des fournisseurs, des patients avec leurs défenseurs, des assureurs et des régulateurs de santé ayant un pouvoir réel d’arrêter le déploiement lorsque les obligations de transparence ne sont pas respectées.
Le secteur de la santé est à un point d’inflexion qui se produit une fois par génération. L’IA peut compresser les délais de diagnostic, détecter les conditions plus tôt, réduire le fardeau administratif qui pousse à l’épuisement des cliniciens et étendre des soins de qualité à des populations historiquement sous-servies par le système existant. Aucun de ce potentiel ne disparaît parce que la gouvernance est difficile. Elle s’accélère lorsque la gouvernance est bien faite — parce que les patients s’engagent plus pleinement dans un système auquel ils font confiance, les cliniciens adoptent des outils qu’ils peuvent expliquer et les régulateurs permettent un déploiement plus rapide lorsque l’infrastructure de responsabilité est déjà en place. Obtenir la gouvernance correcte n’est pas l’obstacle à la promesse de l’IA dans les soins de santé. C’est le chemin vers celle-ci.
