Régulation des outils de santé mentale basés sur l’IA à Seattle

Régulation des outils de santé mentale basés sur l’IA à Seattle

Une organisation à Seattle crée certaines des premières règles de sécurité pour les outils de santé mentale basés sur l’IA, qui sont déjà utilisés par des millions de personnes avec très peu de supervision. Cela est crucial car l’utilisation de l’IA dans les soins de santé mentale, allant des chatbots de soutien émotionnel aux outils capables de diagnostiquer des conditions, croît plus vite que notre capacité à gérer les risques.

Objectifs de l’initiative

Le but est de protéger les utilisateurs vulnérables contre les dommages potentiels pendant que ces outils se répandent à l’échelle mondiale.

Collaboration avec les régulateurs sud-africains

PATH, une ONG basée à Seattle, travaille avec des régulateurs en Afrique du Sud pour construire un système formel qui vérifie la sécurité et l’efficacité des outils d’IA avant qu’ils ne puissent être utilisés par le public. Ces nouvelles normes ont été introduites en novembre 2025 lors du G20 Social Summit à Johannesburg. L’espoir est que cela serve de modèle pour d’autres pays africains et, finalement, pour le reste du monde.

Application des nouvelles règles

Les régulateurs sud-africains prévoient d’appliquer ces nouvelles règles à toute entreprise commercialisant une plateforme d’IA comme outil de santé mentale. Dans le cadre de ce système, les entreprises doivent prouver que leur technologie améliore réellement la santé mentale tout en suivant et en rapportant toute instance de dommages.

Cela empêche les entreprises d’éviter la supervision médicale en appelant simplement leurs produits des applications de « bien-être » au lieu de dispositifs médicaux.

Comparaison avec les vaccins

Le directeur de l’IA de PATH, Bilal Mateen, compare la nécessité de ces règles à la façon dont nous testons les vaccins ou les médicaments avant de les donner à nos proches. L’organisation explore également comment les grands modèles linguistiques peuvent aider en toute sécurité les médecins de soins primaires dans les zones où les professionnels de la santé sont rares.

Résultats prometteurs et processus de révision

Bien que les résultats préliminaires de ces projets soient prometteurs, ils sont actuellement soumis à un processus de révision par les pairs pour garantir leur sécurité.

Regard sur la législation de l’État de Washington

Les législateurs de l’État de Washington examinent également plusieurs projets de loi au cours de la session de 2026 pour réglementer la technologie de l’IA. Ces propositions incluent de nouvelles règles pour les chatbots compagnons et des limites sur la façon dont l’IA peut être utilisée dans les écoles pour protéger les étudiants.

Conclusion

Alors que les outils de santé mentale basés sur l’IA deviennent de plus en plus courants, l’accent est mis sur qui établira les règles et comment garantir que ces règles protègent réellement les individus.

Scroll to Top