FDA : Les dispositifs médicaux alimentés par l’IA « fournissant simplement des informations » ne sont pas soumis à réglementation
Lors d’un récent segment télévisé sur Fox Business, la Food and Drug Administration (FDA) des États-Unis a annoncé une importante évolution de sa politique concernant les dispositifs médicaux. Dans une interview entre l’animateur Stuart Varney et le commissaire de la FDA, Martin Makary, MD, ce dernier a révélé que l’agence ne nécessitera pas que les développeurs de dispositifs portables destinés aux consommateurs, même ceux générant des données de santé, soient soumis à une réglementation.
Produits non réglementés
Cette décision concerne spécifiquement tout dispositif médical fournissant des informations de santé générales, telles qu’un calculateur de calories ou un moniteur de sommeil, qui ne prétend pas diagnostiquer une condition ou produire des données qualifiées de « médicales ». Makary a déclaré : « Nous voulons informer les entreprises, avec des directives très claires, que si leur dispositif ou logiciel fournit simplement des informations, elles peuvent le faire sans réglementation de la FDA ».
Exemples de dispositifs réglementés
En revanche, des dispositifs comme les lecteurs de pression artérielle, qui fournissent des données aux utilisateurs et aux prestataires, resteront soumis à la réglementation de la FDA. Si les données sont utilisées à des fins cliniques, les entreprises devront suivre les directives de l’agence. Cependant, il existe une marge de manœuvre considérable. Selon Makary, la ligne de démarcation réglementaire sera largement basée sur les affirmations des entreprises concernant leurs produits.
Équilibre entre innovation et sécurité
En annonçant cette politique, la FDA cherche à équilibrer la nécessité de données pour alimenter ce qu’elle appelle une « révolution de l’IA », tout en veillant à ce que les dispositifs de santé ne deviennent pas un « Far West » où les patients prennent des décisions médicales importantes basées sur les conseils d’une application portable.
Makary a précisé : « Nous ne voulons pas que les gens modifient leurs médicaments en se basant sur quelque chose qui n’est qu’un outil de dépistage ou une estimation d’un paramètre physiologique ».
Précision des données et forces du marché
Cette annonce, faite le 6 janvier, coïncide avec des directives officielles de la FDA concernant les modèles de langage large dans une approche similaire. Selon Makary, cette approche laxiste sur l’IA centrée sur le consommateur en santé inclura des outils tels que ChatGPT et Google Gemini, qui sont fréquemment utilisés par les Américains pour répondre à des questions médicales, tant que ces systèmes ne prétendent pas remplacer les médecins.
Il a été demandé directement à Makary si la FDA s’efforçait de garantir que les données médicales produites par des applications et des dispositifs portables soient précises. La réponse semble dépendre du contexte. « S’ils ne prétendent pas être de qualité médicale, laissons le marché décider », a-t-il déclaré.
Conclusion
En conclusion, même si un dispositif portable ne produit pas de données cliniquement viables, il peut être utilisé pour le soin des patients, peu importe s’il a reçu l’approbation de la FDA. Makary a noté que de nombreux dispositifs alimentés par l’IA s’améliorent au fil du temps grâce à leur utilisation. « Si quelque chose fournit simplement des informations comme ChatGPT ou Google, nous ne pourrons pas outrun ce lion », a-t-il ajouté, soulignant la nécessité de promouvoir ces produits tout en protégeant contre des préoccupations majeures en matière de sécurité.
