Risques potentiels de sécurité des patients liés à l’IA dans la VHA

Analyse de l’utilisation de l’IA par la VHA et ses risques potentiels pour la sécurité des patients

La Veterans Health Administration (VHA) fait face à des préoccupations concernant l’utilisation d’outils de chat d’intelligence artificielle (IA) générative pour les soins cliniques. Selon une nouvelle analyse du Department of Veterans Affairs (VA) Office of Inspector General (OIG), cette utilisation présente un risque potentiel pour la sécurité des patients.

Manque de mécanisme formel

Le rapport du 15 janvier révèle que la VHA ne dispose pas d’un mécanisme formel pour identifier, suivre ou résoudre les risques associés à l’IA générative. Cela soulève des inquiétudes quant à la manière dont la sécurité des patients est protégée lors du déploiement de cette technologie dans des environnements cliniques.

Collaboration informelle et autorisation des outils d’IA

Les efforts de la VHA pour intégrer l’IA dans les soins de santé reposent sur une collaboration informelle entre le directeur par intérim de l’Institut National de l’IA du VA et le responsable de l’IA au sein du bureau des Technologies de l’Information du VA. Ces responsables n’ont pas coordonné avec le National Center for Patient Safety lors de l’autorisation des outils de chat IA pour une utilisation clinique.

Outils de chat et préoccupations

La VHA a autorisé deux outils de chat IA pour l’utilisation avec les informations de santé des patients : Microsoft 365 Copilot Chat et VA GPT, un nouvel outil de chat interne conçu pour les employés du VA. Bien que ces outils visent à soutenir la prise de décision clinique, l’OIG met en garde contre le fait que les systèmes d’IA générative peuvent produire des résultats inexactes ou incomplets, y compris des omissions qui pourraient affecter les diagnostics ou les décisions de traitement.

Préoccupations de l’OIG

L’OIG est préoccupé par la capacité de la VHA à promouvoir et à protéger la sécurité des patients sans un processus standardisé pour gérer les risques liés à l’IA. De plus, l’absence de ce processus empêche la création d’une boucle de rétroaction et d’un moyen de détecter des modèles qui pourraient améliorer la sécurité et la qualité des outils de chat IA utilisés dans les environnements cliniques.

Partage des résultats préliminaires

Étant donné la nature critique de ce sujet, l’OIG partage largement cette conclusion préliminaire afin que les dirigeants de la VHA soient conscients de ce risque pour la sécurité des patients. L’examen de l’OIG est en cours, il n’a donc pas émis de recommandations formelles pour le moment.

Contexte global

L’analyse de l’OIG s’aligne sur les conclusions d’un rapport récent de Kiteworks, qui avertit que les agences gouvernementales fonctionnent en 2026 sans la gouvernance opérationnelle nécessaire pour gérer l’IA de manière sécurisée. Selon une enquête menée auprès de gouvernements du monde entier, seulement 10 % d’entre eux disposent d’une gouvernance centralisée de l’IA. Un tiers n’a pas de contrôles dédiés à l’IA, et 76 % manquent de mécanismes automatisés pour arrêter ou révoquer des systèmes d’IA à haut risque, ainsi que de détection d’anomalies en matière d’IA.

Scroll to Top