Soins de santé sans hôpital : ChatGPT Health et Claude vont directement aux consommateurs
À la suite du CES2026, OpenAI et Anthropic ont annoncé des produits d’IA générative destinés aux consommateurs pour le secteur de la santé.
OpenAI a lancé ChatGPT Health le 7 janvier 2026, suivi par Anthropic avec Claude pour la santé le 11 janvier 2026. Ces deux produits permettent aux utilisateurs de connecter leurs dossiers médicaux et leurs données de bien-être directement à ces chatbots IA, marquant un changement significatif dans l’application des technologies de santé aux consommateurs.
Aperçu des nouvelles plateformes
ChatGPT Health est un espace dédié au sein de la plateforme ChatGPT d’OpenAI où les utilisateurs peuvent lier leurs dossiers médicaux et leurs applications de bien-être. Grâce à un partenariat avec b.well, les utilisateurs peuvent connecter des dossiers de santé électroniques provenant de fournisseurs de soins de santé américains, ainsi que des données provenant d’Apple Health, Function, MyFitnessPal, Weight Watchers, et d’autres plateformes. Selon OpenAI, plus de 230 millions de personnes dans le monde posent déjà des questions sur la santé et le bien-être sur ChatGPT chaque semaine.
Pour mettre l’accent sur la protection de la vie privée, la plateforme stocke les conversations spécifiques à la santé, les applications connectées et les fichiers téléchargés séparément des autres discussions. De plus, les conversations de ChatGPT Health ne sont pas utilisées pour entraîner les modèles de base d’OpenAI et bénéficient d’un cryptage supplémentaire.
OpenAI a également annoncé ChatGPT pour la santé, un produit distinct destiné aux organisations de santé qui fonctionne sur des modèles GPT-5 et inclut des options conformes à la HIPAA avec des clés de cryptage gérées par le client. Ce produit est spécifiquement conçu pour les flux de travail de santé et a été évalué par des médecins utilisant HealthBench.
Claude pour la santé
Claude pour la santé d’Anthropic s’appuie sur sa version précédente Claude pour les sciences de la vie, en ajoutant des connecteurs à des systèmes standard de l’industrie : la base de données de couverture des Centers for Medicare & Medicaid Services pour les déterminations de couverture, le système de classification ICD-10 pour le codage médical, le registre des fournisseurs nationaux pour l’authentification et l’accès à plus de 35 millions de pièces de littérature biomédicale via PubMed.
Du côté des consommateurs, les abonnés peuvent connecter HealthEx, Function, Apple Health, et Android Health Connect pour donner à Claude accès à leurs résultats de laboratoire, données provenant de dispositifs portables, et dossiers de santé. Anthropic a également déclaré que les données de santé ne sont pas utilisées pour entraîner les modèles et que les utilisateurs contrôlent les informations qu’ils partagent.
Questions juridiques et risques liés à l’IA santé directe aux consommateurs
Bien que ChatGPT Health et Claude pour la santé offrent des capacités utiles, ils présentent également des risques et des limitations que les utilisateurs, les prestataires de soins de santé et les organisations doivent évaluer avant adoption.
Avertir l’utilisateur : Conditions d’utilisation favorables au vendeur
Les utilisateurs doivent lire attentivement les conditions de service, car les deux plateformes déclinent toute responsabilité concernant l’exactitude des résultats liés à la santé et précisent que leurs produits ne sont pas destinés à un diagnostic ou à un traitement. Les conditions d’OpenAI notent que ChatGPT Health “n’est pas destiné à un usage dans le diagnostic ou le traitement de toute condition de santé”.
Ces conditions placent la responsabilité d’évaluation des informations de santé générées par l’IA sur l’utilisateur. La relation entre un patient et un professionnel de santé licencié comporte des devoirs professionnels, une responsabilité en matière de négligence et une supervision réglementaire. Cependant, la relation entre un utilisateur et une plateforme d’IA est régie uniquement par le contrat.
Prendre l’humain hors du processus
Les deux plateformes déclarent que leurs produits consommateurs soutiennent plutôt qu’ils ne remplacent les soins médicaux. Cependant, l’intégration des dossiers médicaux avec des chatbots IA modifie la manière dont les patients s’informent et déterminent quand chercher des avis professionnels.
Lorsque les utilisateurs peuvent demander à une IA d’interpréter leurs résultats de laboratoire ou de suggérer des questions pour leurs médecins, ils peuvent être moins enclins à chercher des conseils professionnels. Cela soulève des préoccupations sur la diminution de l’implication des cliniciens.
Confidentialité et cybersécurité
Les protections de la vie privée vont au-delà de la HIPAA, mais les plateformes mettent en œuvre des mesures de confidentialité, y compris le stockage compartimenté, le cryptage et l’exclusion de l’entraînement des modèles. Cependant, ces protections sont contractuelles plutôt que réglementées par des réglementations de confidentialité spécifiques aux soins de santé.
La cybersécurité reste une préoccupation, car l’agrégation des informations médicales au sein des plateformes IA crée des cibles attrayantes pour les acteurs malveillants.
Conclusion
Le lancement de ChatGPT Health et Claude pour la santé offre aux consommateurs de nouveaux outils IA puissants qui exploitent les données de santé et de bien-être dans une interface conviviale. Cependant, les utilisateurs et les organisations doivent comprendre les limitations de ces systèmes, car l’utilisation par le consommateur est régie par des conditions favorables aux vendeurs qui placent la responsabilité sur les utilisateurs.
Ces plateformes serviront de terrains d’essai pour déterminer où les consommateurs se sentent à l’aise d’interagir avec l’IA générative pour des fins de santé.
