La pharmacie avance rapidement grâce à l’IA, mais la gouvernance peine à suivre
L’utilisation de l’IA dans le développement pharmaceutique devient de plus en plus répandue, mais les règles sont encore en cours d’élaboration.
Selon McKinsey, 71% des entreprises de divers secteurs utilisent désormais l’IA générative, les sciences de la vie figurant parmi les secteurs les plus rapides à adopter cette technologie. Cependant, seulement 53% d’entre elles prennent des mesures actives pour atténuer les risques liés à l’IA.
Cette lacune engendre une certaine inquiétude, car les entreprises pharmaceutiques déploient des systèmes autonomes à travers la recherche et le développement (R&D) ainsi que la production, tout en construisant simultanément leurs cadres de gouvernance.
Vulnérabilités opérationnelles
Les systèmes d’IA introduisent des risques que les cadres de qualité pharmaceutiques traditionnels n’ont pas été conçus pour aborder. Le phénomène de model drift se produit souvent lorsque les projections d’IA deviennent inexactes au fil du temps, à mesure que les données d’entraînement s’écartent des conditions de production initiales. Pour la découverte de médicaments, cela peut signifier que des composés jugés prometteurs sur la base de jeux de données obsolètes ne le sont plus. En fabrication, cela peut entraîner des algorithmes de contrôle qualité incapables de détecter des anomalies de processus.
La fuite de données entre les entreprises de recherche sous contrat et les partenaires de fabrication crée une couche supplémentaire d’exposition. Les modèles propriétaires entraînés sur des données d’essais cliniques peuvent exposer involontairement des informations sur les patients ou la propriété intellectuelle lorsqu’ils sont partagés au-delà des frontières structurelles. Sans contrôles de provenance stricts, les entreprises pharmaceutiques perdent la visibilité sur l’utilisation de leurs données et sur la conformité des modèles avec les réglementations sur la vie privée.
Le risque de biais continue également à déformer les résultats. Les examens réglementaires menés par la FDA et l’EMA entre 2024 et 2025 ont identifié des cas où des algorithmes pilotés par l’IA excluaient systématiquement certains groupes démographiques des essais cliniques, compromettant ainsi à la fois la conformité réglementaire et l’efficacité thérapeutique.
Conformité en action
Les cadres réglementaires ont un impact profond sur la manière dont les entreprises pharmaceutiques abordent la gouvernance de l’IA. La mise à jour ICH E6(R3), finalisée au début de 2025, renforce les exigences pour tous les systèmes informatisés utilisés dans les essais cliniques, y compris l’IA. La section 4.2.2 exige que les métadonnées pertinentes pour l’essai, y compris les pistes de vérification, soient conservées pour permettre la reconstruction des événements. La section 3.16.1 exige que toutes les modifications des données soient attribuables, enregistrées et reconstructibles.
Ces exigences affectent chaque essai assisté par l’IA soumis pour approbation réglementaire. Le document de réflexion de l’EMA sur l’utilisation de l’IA dans le cycle de vie des médicaments renforce à nouveau ces attentes pour les systèmes d’apprentissage automatique. Il souligne que les demandeurs et les titulaires d’autorisation de mise sur le marché doivent s’assurer que les algorithmes, modèles, ensembles de données et pipelines de traitement des données sont documentés de manière transparente et auditable.
Un changement de position a accéléré les changements structurels au sein des organisations. Environ 13% des entreprises ont créé des rôles de gouvernance ou de risque dédiés à l’IA, reconnaissant que l’expertise réglementaire doit s’accompagner de capacités techniques. Des centres d’excellence en IA émergent comme des hubs opérationnels où les scientifiques des données, les professionnels des affaires réglementaires et les équipes d’assurance qualité collaborent pour valider les modèles.
Ces centres améliorent la responsabilité en établissant des responsabilités claires, améliorent la reproductibilité en standardisant la documentation et augmentent la vitesse en prévenant les échecs de conformité qui retardent les soumissions. Notre propre laboratoire d’adoption de l’IA fournit un environnement sécurisé pour le prototypage et la validation des modèles avant leur déploiement. L’avantage réel ira aux entreprises qui traitent la conformité comme une discipline opérationnelle, plutôt que comme un fardeau administratif, accélérant ainsi l’approbation et permettant une montée en échelle en toute confiance.
Préparation pour l’avenir
La prochaine vague de risque opérationnel est claire. L’analyse de septembre 2025 souligne qu’à mesure que l’IA agentique devient intégrée dans les flux de travail, les entreprises doivent établir des cadres de gouvernance solides avec des responsabilités claires et des garde-fous pour éviter les conséquences imprévues.
