Comment les systèmes eTMF activés par l’IA sont impactés par la loi sur l’IA de l’UE (Partie 1)
Alors que l’IA devient de plus en plus intégrée dans les systèmes eTMF, les organisations du secteur de la recherche clinique entrent dans un paysage réglementaire nouveau et complexe façonné par la loi sur l’intelligence artificielle de l’UE (EU AI Act).
Qu’est-ce que la loi sur l’IA de l’UE ?
La loi sur l’IA de l’UE n’est pas un guide technique ou un cadre de meilleures pratiques volontaire. Il s’agit d’une réglementation horizontale contraignante applicable à tous les secteurs, y compris les sciences de la vie et la recherche clinique. Son objectif principal est d’assurer que les systèmes d’IA placés sur le marché de l’UE sont sûrs, transparents, fiables et respectueux des droits fondamentaux, y compris la protection des données, la non-discrimination et la supervision humaine.
Pour les organisations déjà soumises aux réglementations GCP, GMP, GDPR et aux systèmes de qualité, la loi sur l’IA de l’UE introduit une philosophie réglementaire familière — mais l’applique à un nouvel objet de contrôle : les systèmes d’IA eux-mêmes.
Les principes fondamentaux de la loi sur l’IA de l’UE
La loi établit un cadre réglementaire basé sur le risque, ce qui signifie que le niveau de contrôle réglementaire est proportionnel au niveau de risque qu’un système d’IA pose pour les individus et la société. Cette approche est conceptuellement alignée avec des cadres déjà bien connus dans la recherche clinique.
La loi sur l’IA de l’UE définit ce qui qualifie un système d’IA, classe les systèmes d’IA en catégories de risque, impose des obligations obligatoires en fonction de ce risque, et attribue des responsabilités légales aux différents acteurs (fournisseurs, déployeurs, importateurs, distributeurs).
Catégories de risque
La loi identifie quatre catégories de risque :
- Risque inacceptable – Les systèmes d’IA jugés clairement menaçants pour la santé, la sécurité et les droits fondamentaux sont prohibés.
- Risque élevé – Les systèmes d’IA pouvant affecter de manière significative ces domaines sont autorisés mais soumis à des exigences strictes.
- Risque limité – Les systèmes présentant peu de potentiel de danger doivent respecter des obligations de transparence.
- Risque minimal ou nul – Les systèmes ayant des effets négligeables sont largement non réglementés, mais les meilleures pratiques s’appliquent.
Impact sur les systèmes eTMF activés par l’IA
Dans le cadre de la loi sur l’IA de l’UE, un eTMF activé par l’IA ne sera pas automatiquement qualifié de haut risque. La classification est déterminée par le cas d’utilisation, l’impact des décisions et la fonction réglementaire, et non par la simple présence de l’IA.
Les capacités d’IA qui soutiennent des tâches administratives de base peuvent présenter un risque réglementaire limité, tandis que celles influençant directement la conformité ou la sécurité seront soumises à des exigences plus strictes.
Conclusion
L’intégration de l’IA dans les systèmes eTMF marque un changement structurel dans la manière dont la conformité des essais cliniques, la supervision et la protection des patients sont démontrées. Cela ne constitue pas une philosophie réglementaire inconnue pour le secteur des sciences de la vie, mais étend des principes bien établis de surveillance basée sur le risque à un nouvel objet de contrôle : l’IA.
Dans la prochaine partie, nous examinerons les exigences de conformité concrètes de la loi sur l’IA de l’UE applicables aux contextes eTMF à haut risque, ainsi que les rôles et responsabilités des parties prenantes clés.
