Régulation des IA et des objets connectés : un risque à considérer

Faciliter la régulation des IA et des objets connectés : un choix risqué

Un patient arrive pour une consultation, tendant l’écran de son téléphone comme preuve : un outil d’intelligence artificielle (IA) a classé ses symptômes comme « à haut risque » et a recommandé une prochaine étape. Le langage est poli, la recommandation est précise, et l’anxiété du patient est réelle. L’outil ne « pose pas de diagnostic » — techniquement, il « fournit des informations ». Mais il a déjà façonné la décision clinique avant même qu’un clinicien n’entre dans la pièce.

La nouvelle posture de la FDA

C’est dans ce contexte que la nouvelle posture de la FDA concernant la santé numérique doit être évaluée. Lors du Consumer Electronics Show, le commissaire de la FDA, Marty Makary, a présenté les priorités de l’agence en des termes de la Silicon Valley — vitesse, investisseurs et itération rapide — et a annoncé des « changements radicaux » dans l’approche de la FDA concernant les logiciels de support à la décision clinique et certains dispositifs portables.

Dérégulation raisonnée

Une certaine dérégulation est raisonnable. Ce n’est pas chaque compteur de pas ou application de méditation qui nécessite le même niveau de contrôle qu’un test diagnostique. Les ressources de la FDA sont limitées, et il est défendable de prioriser la surveillance des outils à risque plus élevé.

La question est de savoir où l’agence trace désormais la frontière — et si les nouvelles directives facilitent l’évitement du traitement des produits qui se comportent comme des médicaments.

Bien-être général vs. usage médical

La mise à jour de la FDA sur le « Bien-être général » réitère une approche d’application que beaucoup dans la santé numérique ont souhaité pendant des années : le Centre pour les dispositifs et la santé radiologique « n’a pas l’intention d’examiner » les produits de bien-être général à faible risque pour déterminer s’ils sont des dispositifs ou s’ils respectent les exigences de pré-commercialisation et de post-commercialisation.

Ce qui est nouveau — et plus conséquent — c’est jusqu’où le « bien-être général » peut s’étendre dans un territoire cliniquement familier. Les directives stipulent que la FDA peut considérer des produits qui utilisent des capteurs non invasifs pour estimer ou produire des paramètres physiologiques tels que la pression artérielle, la saturation en oxygène, la glycémie et la variabilité de la fréquence cardiaque comme des produits de bien-être général, tant que les résultats sont destinés uniquement à des usages de bien-être et respectent des garde-fous.

Les implications de la dérégulation

Ces réserves sont importantes. Mais elles entrent également en collision avec la manière dont la médecine fonctionne réellement. Des chiffres comme la pression artérielle et la glycémie ne restent pas dans une « voie de bien-être ». Les patients les apportent lors des visites cliniques. Les systèmes de santé commencent à ingérer les données des dispositifs consommateurs dans les dossiers électroniques et les flux de surveillance à distance.

Un outil peut être étiqueté « non destiné à un usage médical » et devenir néanmoins une entrée dans la prise de décision médicale, simplement parce que la sortie a l’apparence et la sensation clinique.

Une recommandation unique peut être coercitive

La FDA a également mis à jour ses directives sur les logiciels de support à la décision clinique (CDS). Les directives clarifient comment certaines fonctions de CDS peuvent être « non-dispositif » selon les critères de la loi de 21e siècle sur les traitements. Mais cela introduit un changement de politique critique : lorsque seule une option est cliniquement appropriée, et que le CDS répond autrement aux critères statutaires, la FDA « a l’intention d’exercer sa discrétion en matière d’application ».

Cela a de l’importance car une seule recommandation n’est pas un coup de pouce neutre. C’est une directive déguisée en conseil. Dans le monde réel, les cliniciens sont occupés, les boîtes de réception sont pleines, et les décisions sont prises sous pression temporelle. Dans ce contexte, les outils logiciels qui proposent un « meilleur » choix peuvent silencieusement remodeler le jugement clinique.

Un besoin de transparence et de suivi

Une posture réglementaire qui élargit les catégories « non à appliquer » pour les recommandations cliniques devrait donc être accompagnée d’attentes plus fortes en matière de transparence, de suivi et de preuves — et non de moins.

Retirer les directives d’évaluation clinique envoie le mauvais signal. À un moment où l’IA entre dans les flux de travail cliniques plus rapidement que les normes d’évaluation ne peuvent suivre, retirer un cadre d’évaluation clinique partagé risque de signaler que la vitesse est la priorité — même lorsque la crédibilité et la confiance sont les véritables goulots d’étranglement à l’adoption.

Une meilleure approche : preuves plus rapides, garde-fous plus forts

Le cadre standard — innovation contre sécurité — est une fausse dichotomie. En médecine, la sécurité est ce qui rend l’innovation adoptable. Si les patients et les cliniciens ne peuvent pas faire confiance à ces outils, l’adoption sera bloquée et le retour de bâton grandira.

Une alternative constructive est disponible :

  1. Réguler par contexte d’utilisation, pas par étiquettes marketing. Si un dispositif consommateur produit des valeurs physiologiques cliniquement significatives, la FDA devrait exiger des divulgations claires et standardisées concernant la validation, l’utilisation prévue et les limitations.
  2. Faire de la discrétion d’application une voie rapide structurée. Lorsque l’agence choisit de ne pas appliquer les exigences de pré-commercialisation pour une catégorie, elle devrait tout de même attendre une transparence de base.
  3. Accélérer la génération de preuves plutôt que de simplement assouplir la surveillance. La FDA a déjà décrit des modèles qui associent l’accès à un apprentissage structuré dans des environnements réels.

L’objectif ne devrait pas être « moins de FDA ». L’objectif devrait être de meilleures preuves au rythme des logiciels, car les recommandations générées par l’IA et les chiffres dérivés des portables apparaissent déjà lors des visites cliniques, façonnant les décisions et changeant ce que les patients attendent des soins.

Scroll to Top