Vers une gouvernance éthique de la surveillance cognitive par l’intelligence artificielle (IA) chez les personnes âgées
Le suivi cognitif habilité par l’IA émerge comme une application clé de l’apprentissage automatique dans les soins gériatriques. Les cliniciens adoptent de plus en plus des évaluations continues et multimodales qui analysent les données comportementales et cognitives longitudinales pour détecter les changements dans la fonction cognitive chez les personnes âgées.
Phénotypage longitudinal
Ces systèmes d’IA utilisent le phénotypage longitudinal, qui implique la collecte et l’analyse continues de données comportementales et cognitives, telles que les schémas de discours, les mouvements fins, les rythmes d’activité quotidienne et les interactions avec des dispositifs numériques. Cela permet de détecter des changements subtils dans la cognition et la fonction qui peuvent indiquer les premiers stades du déclin cognitif.
Structures de gouvernance des données
À mesure que ces outils sont de plus en plus utilisés dans les soins de santé, il est essentiel que les cliniciens et les chercheurs établissent des structures de gouvernance des données pour garantir que ces technologies soient utilisées de manière sûre et équitable dans la pratique clinique.
Normes éthiques et de gouvernance
Les systèmes basés sur l’IA reposent également sur le phénotypage longitudinal, qui crée une valeur clinique significative tout en nécessitant de nouvelles lignes directrices éthiques et de gouvernance des données. Ces innovations exigent des cadres réglementaires qui distinguent clairement entre les outils d’aide au diagnostic utilisés lors des visites cliniques et les outils de suivi continu qui peuvent fonctionner en arrière-plan. Chaque catégorie soulève des attentes distinctes concernant la réponse des cliniciens, le consentement des patients et la supervision algorithmique.
Opacité épistémique
Un autre défi de gouvernance est l’opacité épistémique des modèles d’apprentissage automatique, ce qui signifie que la logique interne et les processus décisionnels de ces algorithmes ne sont souvent pas facilement observables ou compréhensibles pour les cliniciens et les patients. Cette transparence insuffisante peut compliquer la responsabilité clinique et la prise de décision.
Pour atténuer ces problèmes, des stratégies comme l’utilisation d’outils d’interprétabilité des modèles, des protocoles de validation standardisés et la transparence dans le reporting des résultats algorithmiques sont nécessaires. Les avancées récentes dans la conception de l’IA améliorent l’interprétabilité des modèles, y compris des outils qui fournissent des informations sur la façon dont des entrées spécifiques influencent des sorties.
Gouvernance des alertes générées par l’IA
Les alertes générées par l’IA dérivées de schémas de discours ou de mobilité devraient être accompagnées de flux de travail structurés qui guident les réponses des cliniciens. Sans ces directives, les systèmes d’IA risquent de créer une ambiguïté clinique en ne précisant pas comment les résultats doivent être intégrés dans la prise de décision médicale.
Responsabilité clinique distribuée
Les institutions utilisant des outils de suivi cognitif doivent également aborder le défi de la responsabilité clinique distribuée. Cela inclut la responsabilité légale, éthique et au niveau des flux de travail. Lorsque les systèmes d’IA produisent des alertes fréquentes ou identifient des anomalies comportementales, il devient difficile de déterminer qui est responsable de leur interprétation ou documentation.
Cadres de consentement
Un aspect crucial concerne le développement de cadres de consentement applicables à la collecte de données passive à travers des microphones, accéléromètres ou dispositifs à domicile. Étant donné que de nombreux outils de suivi cognitif fonctionnent en continu, les structures de gouvernance devraient incorporer des processus de consentement dynamiques et continus.
Surveillance des outils adaptatifs
Enfin, étant donné que certains modèles de suivi cognitif reposent sur des systèmes qui ajustent leurs paramètres à mesure que de nouvelles données sont acquises, la gouvernance doit traiter comment ces outils adaptatifs sont systématiquement supervisés et évalués au fil du temps. Cela pourrait inclure des exigences clairement définies pour le suivi des changements subtils dans le comportement des algorithmes.
Le suivi cognitif soutenu par l’IA détient un potentiel substantiel pour détecter les changements cognitifs précoces, soutenir des plans de soins personnalisés et aider les cliniciens à mesure que les populations vieillissent. Toutefois, cette discussion est conceptuelle et ne présente pas de données empiriques originales, d’analyses réglementaires spécifiques à des juridictions ou d’input direct de cliniciens, patients ou autres parties prenantes.
En fin de compte, la réalisation de ce potentiel dépendra de l’établissement de structures de gouvernance qui protègent l’autonomie des patients et maintiennent l’intégrité clinique.
