Une enquête révèle la présence généralisée des outils IA non autorisés dans les hôpitaux et systèmes de santé
Une nouvelle enquête menée par Wolters Kluwer Health auprès des professionnels de la santé et des administrateurs met en lumière une tendance croissante : les outils et applications IA non autorisés, connus sous le nom de “shadow AI”, sont actuellement utilisés dans les hôpitaux et systèmes de santé aux États-Unis, y compris pour les soins directs aux patients. Cela soulève des préoccupations concernant la sécurité des patients, la vie privée des données et la conformité réglementaire.
Principales conclusions de l’enquête sur le shadow AI
Selon l’enquête, 40% des répondants ont rencontré un outil IA non autorisé dans leur organisation, et près de 20% avouent les avoir utilisés. Les médecins et les administrateurs choisissent les outils IA pour optimiser les flux de travail et, en l’absence d’options approuvées, ils prennent des risques. Le shadow AI n’est pas seulement un problème technique ; c’est un problème de gouvernance qui peut soulever des préoccupations en matière de sécurité des patients.
Un besoin urgent de politiques claires
Les dirigeants doivent agir maintenant pour combler le vide politique autour de l’utilisation de l’IA, développer des lignes directrices de conformité claires et s’assurer que seuls des outils IA validés, sécurisés et adaptés aux entreprises sont utilisés dans les soins cliniques.
Une prévalence alarmante du shadow AI
Quarante pour cent des professionnels de la santé ont rencontré des outils IA non autorisés au travail, et près de 20% admettent les avoir utilisés. Les principales raisons évoquées sont un besoin de flux de travail plus rapides. Pour les prestataires, la curiosité et l’expérimentation ont été légèrement plus élevées que la fonctionnalité améliorée. Un répondant sur dix a utilisé un outil IA non autorisé pour un cas d’utilisation de soins directs aux patients.
Des lacunes dans le développement des politiques
Les administrateurs sont trois fois plus susceptibles d’être activement impliqués dans le développement des politiques IA en santé que les prestataires (30% contre 9%), ce qui suggère que la propriété des politiques est plus centralisée au sein des rôles administratifs hospitaliers. En termes de sensibilisation, 29% des prestataires sont au courant des principales politiques contre 17% des administrateurs.
Une majorité de professionnels de la santé utilise des outils IA
Plus de la moitié des professionnels de la santé utilisent fréquemment des outils IA ou s’appuient sur eux pour leur travail. Ils expriment un fort optimisme quant à l’impact de l’IA sur les soins de santé, avec près de 90% convenant ou convenant fortement que l’IA améliorera considérablement les soins dans les cinq prochaines années. L’utilisation principale de l’IA pour les prestataires (60%) et les administrateurs (78%) est l’analyse de données, ce qui indique une intégration profonde dans le flux de travail.
La sécurité des patients est une préoccupation majeure
Les prestataires (25%) et les administrateurs (26%) classent la sécurité des patients comme leur principale préoccupation concernant l’IA dans la santé. Parmi les administrateurs, la sécurité des patients est la préoccupation principale, suivie de celle concernant la vie privée et les violations de données. Les prestataires classent les sorties inexactes comme leur deuxième plus grande préoccupation, tandis que les administrateurs placent la vie privée en second.
Des craintes concernant la sécurité des données de santé
Près d’un quart (23%) des professionnels de la santé expriment des inquiétudes concernant les risques de vie privée et de sécurité associés à l’IA dans les soins de santé, mettant en évidence les craintes liées aux violations de données sanitaires, à l’accès non autorisé et à la nécessité de mesures de protection robustes.
Les conclusions de l’enquête sur le shadow AI reflètent la perspective de Scott Simeone, SVP et Chief Information Officer chez Tufts Medicine, qui a déclaré : “GenAI montre un potentiel élevé pour créer de la valeur dans les soins de santé, mais son échelle dépend moins de la technologie et plus de la maturité de la gouvernance organisationnelle.”
Alors que des progrès ont été réalisés en matière de gouvernance, il reste encore du travail à faire pour faire évoluer les outils de contrôle et de suivi afin qu’ils soient adaptés aux contextes cliniques. À mesure que l’utilisation clinique se développe, les systèmes de santé ont besoin de contrôles de niveau entreprise, de transparence et d’une culture de l’IA, afin que cliniciens et patients comprennent quand l’IA soutient les décisions, comment elle fonctionne et où le jugement humain reste essentiel.
