“Holes” dans la réglementation fédérale de l’IA en santé
À mesure que l’utilisation de l’intelligence artificielle (IA) devient de plus en plus courante dans les milieux de santé, des experts appellent à un renforcement des régulations entourant cette technologie.
Un outil populaire dans la recherche médicale
Ces dernières années, l’IA est devenue un outil prisé tant dans la recherche médicale que dans des environnements cliniques, y compris à l’école de médecine Perelman. Des préoccupations ont été exprimées concernant les cadres réglementaires actuels de l’IA, ainsi que des solutions potentielles.
Les voies d’approbation de la FDA
Avant que de nouveaux dispositifs médicaux ne soient commercialisés, ils doivent être jugés sûrs et efficaces par la Food and Drug Administration (FDA). Gary Weissman, professeur adjoint de médecine pulmonaire et soins critiques, a déclaré que ces voies d’approbation de la FDA ont été développées il y a des décennies pour les dispositifs médicaux traditionnels et ne s’appliquent pas bien aux dispositifs modernes basés sur l’IA.
Le cadre actuel pour l’approbation de ces outils est la voie 510(k), qui, selon Weissman, accorde une autorisation à environ 98 % des dispositifs activés par l’IA. Cette voie est destinée aux dispositifs similaires aux options déjà présentes sur le marché qui ont prouvé leur sécurité et leur efficacité.
Les défis des dispositifs basés sur l’IA
Kaustav Shah, médecin interne et boursier du National Clinician Scholars Program, a expliqué que la quantité de données ou de preuves à fournir n’est pas aussi exhaustive que si l’on essayait de soumettre quelque chose de nouveau. La complexité des dispositifs IA rend la détermination de leur qualité plus difficile.
Weissman a exprimé une préoccupation similaire, indiquant que la voie actuelle présente de nombreuses lacunes. Après la mise en œuvre d’un dispositif IA, sa performance peut changer avec le temps et varier selon les lieux, entraînant ce que l’on appelle un glissement. Le processus réglementaire actuel manque d’une infrastructure adéquate pour assurer le bon fonctionnement d’un système IA au site de déploiement.
Appel à un cadre réglementaire plus robuste
Eric Bressman, professeur adjoint de médecine à la Division de médecine hospitalière, a déclaré qu’un cadre plus expansif et robuste est nécessaire pour s’assurer que les outils IA sont correctement formés et testés avant de pouvoir envisager une pratique indépendante. Il propose un modèle de supervision qui mène vers une autonomie graduée, semblable au parcours qu’un humain suivrait en approchant de la pratique indépendante.
Régulations au niveau institutionnel et local
Shah a soutenu que des institutions comme Penn devraient adopter leurs propres processus de gouvernance de l’IA pour déterminer le bon niveau d’évaluation, de rigueur et de transparence à incorporer, indépendamment des exigences fédérales ou étatiques.
Bressman a également plaidé pour un cadre centré sur la FDA au niveau fédéral, incluant un partenariat avec les comités médicaux d’État. Il a souligné que la régulation locale est nécessaire pour suivre le rythme des développements technologiques, car le gouvernement fédéral n’est pas toujours bien positionné pour faire face aux nouvelles mises à jour ou innovations.
Initiatives législatives en Pennsylvanie
En Pennsylvanie, le projet de loi 1925 introduit une législation qui obligerait les assureurs, les hôpitaux et les cliniciens à assurer la transparence auprès des patients et du public dans les circonstances où l’IA est utilisée. Le projet de loi vise à garantir qu’une évaluation individuelle ultime soit effectuée par un humain et nécessite des preuves que les biais et la discrimination déjà prohibés par la loi ont été minimisés dans leur utilisation de l’IA.
Weissman a déclaré que c’était un bon début, tout en notant que, bien que ces mesures soient importantes, elles diffèrent de la réglementation des dispositifs dans l’espace de soutien à la décision, ce qui, selon lui, n’est pas abordé.
