La Californie renforce la réglementation de l’IA en santé pour la nouvelle année
Avec le début de la nouvelle année, plusieurs nouvelles lois régissant l’intelligence artificielle (IA) dans le secteur de la santé sont entrées en vigueur, suscitant un débat renouvelé sur la manière dont cette technologie en pleine expansion devrait être utilisée et encadrée dans les milieux médicaux.
Un besoin croissant d’IA en santé
Au cours de la dernière décennie, l’IA est devenue de plus en plus intégrée dans la vie quotidienne, et la santé est apparue comme l’une de ses applications les plus prometteuses. Grâce à un accès rapide à une multitude d’informations médicales, des conseils apparemment fiables et une prise de décision assurée, les outils d’IA offrent des réponses sans les barrières de temps, de coût ou de logistique liées à une consultation médicale en personne.
Pour de nombreux patients, cette accessibilité est devenue particulièrement attrayante face à la frustration croissante envers le système de santé américain, que 70 % des Américains considèrent en crise ou confronté à des problèmes majeurs, selon Gallup.
Les risques de confiance excessive
Cependant, contrairement aux recherches traditionnelles sur Internet, les outils d’IA présentent souvent leurs informations avec une autorité et même un ton d’empathie, malgré le fait qu’ils ne soient pas des professionnels de la santé agréés. Ce faux sentiment de crédibilité peut entraîner des risques réels.
Nitya Thakkar, doctorante en informatique à Stanford, souligne : « Que se passe-t-il si vous demandez à ChatGPT d’aider à rédiger un essai et qu’il commet des erreurs ? Vous corrigerez simplement cela, sans conséquence majeure. Mais si vous utilisez ChatGPT pour une question de santé et qu’il se trompe, cela pourrait avoir de très graves implications pour la santé d’une personne. »
Les nouvelles réglementations
En réponse à ces préoccupations, plusieurs des nouvelles lois qui viennent d’entrer en vigueur, menées par la Californie, s’attaquent directement à ces enjeux. L’Assembly Bill (AB) 489 vise à maintenir une certaine prudence des patients vis-à-vis du rôle de l’IA dans leur vie médicale. Cette loi interdit aux développeurs et entreprises de laisser entendre que leurs systèmes d’IA fournissent des conseils médicaux professionnels ou agréés.
« C’est un bon moyen de rappeler aux gens que ce sont des modèles ; ils travaillent sur votre ordinateur, ce ne sont pas de vraies personnes, » déclare Thakkar. « Ces lois aideront les gens à se souvenir que c’est une machine. »
La question des titres médicaux
La confusion entourant les titres médicaux est également mise en lumière. Kate Large, une patiente, raconte : « Elle s’est présentée comme une docteure, et je me suis vraiment demandé si je parlais à une infirmière ou à un médecin. »
Cette confusion n’est pas unique. À travers le secteur de la santé, les pharmaciens, les physiothérapeutes et les infirmières titulaires de doctorats se battent depuis longtemps pour savoir s’ils devraient pouvoir utiliser le titre de « docteur » dans des contextes cliniques.
Les implications de la réglementation
En Californie, ce débat a atteint les tribunaux en 2023, lorsque trois infirmières titulaires d’un Doctorat en pratique infirmière ont poursuivi l’État. Le tribunal a statué en septembre 2025 que le titre constituait un discours commercial trompeur, rendant nécessaire une prohibition étatique pour éviter la confusion des patients.
Selon Large, il existe un lien direct entre ce débat et les nouvelles règles de transparence concernant l’IA en santé. « Les titres façonnent la confiance. Les patients supposent que le label ‘docteur’ signifie qu’ils sont des experts agréés. »
Transparence dans l’utilisation de l’IA
En plus de la manière dont l’IA se présente aux patients, les législateurs californiens ont également cherché à réglementer ce qui se passe en coulisses. Le gouverneur Gavin Newsom a signé l’AB 2013, une autre loi qui exige des développeurs qu’ils partagent les données utilisées pour former leurs systèmes d’IA. Pour l’IA liée à la santé, cela signifie qu’ils doivent montrer quelles données soutiennent leurs évaluations cliniques et recommandations.
Les préoccupations croissantes
Les préoccupations concernant l’IA dans le secteur de la santé sont exacerbées par des histoires tragiques de jeunes qui ont reçu des conseils suicidaires de la part de chatbots, et d’adultes devenus dépendants de ces outils. Ces préoccupations ont conduit à une pression croissante sur les législateurs pour qu’ils agissent.
Alors que plusieurs États, dont l’Illinois, le Nevada, l’Utah et le Texas, ont adopté des lois similaires, un mouvement fédéral semble également se dessiner. À la fin de 2025, le président Donald Trump a émis un ordre exécutif visant à limiter ce qu’il décrit comme des réglementations « contraignantes » sur l’IA.
Conclusion
Alors que l’IA continue de se développer rapidement dans le secteur de la santé, son rôle a évolué de l’utilisation possible à la nécessité de contrôle. Bien que la technologie promette efficacité et accès dans un système médical tendu, elle soulève également des préoccupations d’exactitude et de confiance, cruciales à aborder dans un domaine où les erreurs peuvent avoir des conséquences dangereuses.
