Les chatbots de santé alimentés par l’IA au Royaume-Uni et en Europe
Alors que la loi impose une barre élevée en matière de traitement des données personnelles au Royaume-Uni et en Europe, cela n’empêche pas l’opération d’un chatbot de santé alimenté par l’IA sur ce côté de l’Atlantique. ChatGPT Health n’est certainement pas le premier, et il ne sera pas le dernier.
Sensibilité des données de santé
En reconnaissance de la sensibilité particulière des données de santé, et peut-être en prévision des préoccupations des régulateurs et des personnes concernées à travers le monde, OpenAI souligne dès le départ que ChatGPT Health a été conçu avec la confidentialité et la sécurité à l’esprit. Il met en avant les nombreux contrôles en place, y compris le fait de ne pas utiliser les conversations pour entraîner son IA.
Cependant, le diable est dans les détails ; ce qui est viable aux États-Unis lors du lancement peut nécessiter des changements matériels pour les marchés de l’UE et du Royaume-Uni, ainsi que des évaluations d’impact.
Considérations réglementaires
Ce n’est pas seulement la loi sur la protection des données qui peut être un obstacle. Les outils d’IA utilisés à des fins médicales peuvent être qualifiés comme dispositifs médicaux selon la loi britannique, ce qui implique d’autres démarches avant de pouvoir commercialiser ces outils sur le marché britannique. Cela inclut l’enregistrement auprès de l’organisme de réglementation des médicaments et des produits de santé du Royaume-Uni et, selon le risque, la réalisation d’évaluations supplémentaires. Des considérations similaires s’appliquent du point de vue de l’UE.
De plus, si le chatbot est considéré comme un dispositif médical, alors la Loi sur l’IA de l’UE le traitera comme un système d’IA à haut risque, déclenchant ainsi d’autres obligations.
Disclaimers et responsabilité
Il n’est donc pas surprenant que le marketing soit rempli de disclaimers précisant que l’outil est conçu pour soutenir, et non remplacer les soins médicaux ; et qu’il n’est pas destiné à des fins de diagnostic ou de traitement. Ces disclaimers sont cruciaux compte tenu des problèmes d’exactitude et du potentiel de l’IA à halluciner — en matière de santé, les erreurs dans les résultats de l’IA peuvent littéralement être une question de vie ou de mort.
Partage de données et confiance
Quel que soit le motif, les déploiements progressifs sont courants dans le domaine technologique, et cela pourrait bien être ce qu’OpenAI a prévu dès le départ, notant qu’il existe déjà une liste d’attente aux États-Unis.
Le partage de données implique généralement plus de risques. Cela introduit plus d’opportunités pour que les données soient compromises en élargissant la surface d’attaque. Cela peut également signifier moins de contrôle, avec des utilisations secondaires imprévues des données devenant plus probables. Mais aucune des informations riches, de l’amélioration des performances et de la personnalisation dont nous pouvons tous bénéficier, et qui peuvent aider à améliorer notre santé, n’est possible sans ce partage.
Le partage nécessite confiance, surtout en ce qui concerne les aspects les plus personnels de nos vies. Ainsi, si OpenAI se trompe, cette violation de confiance ralentira probablement l’adoption de ces outils qui ont le potentiel de transformer nos vies pour le mieux. C’est pourquoi, en ce qui concerne l’IA, il est si important de sortir de la mentalité de « somme nulle » : innovation et sûreté vont de pair, et ce n’est pas une question de l’un ou l’autre.
