Les laboratoires autonomes d’IA promettent des remèdes aux maladies mais pourraient également générer des substances létales
Au début de l’année 2020, alors que les villes du monde entier commençaient à se confiner en réponse au covid, quelques chercheurs ont réussi à continuer leurs expériences. Bien qu’ils aient été, comme tout le monde, interdits d’entrer dans leurs laboratoires, ils pouvaient se connecter à des laboratoires cloud et soumettre leurs essais à distance, laissant des bras robotiques et des instruments automatisés exécuter leurs instructions.
Ce qui était une commodité agréable en pleine crise est maintenant une réalité répandue, alors que le logiciel, la robotique et l’intelligence artificielle (IA) se combinent pour apporter le concept de « télétravail » à l’expérimentation scientifique. À travers le monde, des laboratoires cloud commerciaux ont déjà commencé à inverser les flux de travail scientifiques traditionnels, au point où, au lieu que les chercheurs se déplacent entre leurs instruments, les échantillons circulent à travers des voies robotiques.
Les laboratoires autonomes
Les laboratoires autonomes vont encore plus loin. En intégrant l’IA directement dans ces laboratoires autonomes, ils peuvent dépasser le simple fait d’exécuter des instructions pour générer activement celles-ci. Ces systèmes automatisés intelligents ne se contentent pas d’identifier de nouvelles expériences et de les réaliser à l’aide d’une infrastructure robotique, mais ils analysent également leurs résultats et, en fonction des retours, décident des prochaines étapes. Ce processus permet de réduire le long cycle d’expérimentation en une boucle de rétroaction continue.
La conséquence immédiate de tout cela sera une accélération dramatique des délais de progrès scientifique. Lorsque une année de recherche humaine peut être compressée en semaines, voire en jours, des milliers de variantes expérimentales peuvent être explorées en parallèle. Dans un tel monde, l’échec est peu coûteux et la découverte par itérations incessantes devient non seulement possible mais inévitable.
Les implications économiques
Dans des domaines tels que la formulation de médicaments, l’ingénierie des protéines et la science des matériaux, ces capacités peuvent transformer radicalement l’économie du travail scientifique. Cependant, comme nous l’avons appris à plusieurs reprises, toute tentative de réduire les frictions entraîne souvent des conséquences inattendues.
En accélérant le rythme auquel la recherche scientifique peut être réalisée, exposons-nous involontairement à des dangers auxquels nous n’avons jusqu’à présent pas eu de raison de nous inquiéter ?
Les risques de l’IA
Tout système d’IA qui aide à identifier le remède à une maladie peut tout aussi facilement être utilisé pour identifier des agents chimiques et biologiques susceptibles de nous rendre malades. Un exemple frappant est celui de MegaSyn, un algorithme d’apprentissage automatique développé pour identifier des composés jamais vus auparavant avec une forte probabilité de guérir des maladies. Dans son processus d’élimination des molécules candidates ayant des effets secondaires toxiques, le système a fini par générer une liste de substances incroyablement létales, non seulement plus puissantes que les agents chimiques les plus toxiques connus, mais également pratiquement introuvables, car beaucoup d’entre elles n’avaient pas encore été découvertes.
Aussi terrifiant que cela puisse paraître, tout ce que fait MegaSyn, c’est identifier des substances potentiellement toxiques. Pour utiliser ces connaissances afin de créer effectivement des substances biologiques nuisibles, quelqu’un devrait prendre ces formules théoriques et les synthétiser en produits réels. Cela nécessite non seulement un accès à un laboratoire entièrement équipé, mais aussi un personnel ayant l’expertise requise pour l’utiliser, ainsi qu’une ambiguïté morale à le faire, quelles qu’en soient les conséquences. À mesure que les laboratoires autonomes deviennent une réalité, cette barrière tombera bientôt.
Réglementation et responsabilité
Ce n’est pas un risque hypothétique. La plupart des systèmes biologiques d’IA sont peu réglementés. Beaucoup sont open-source. Peu intègrent des garanties significatives. Les laboratoires cloud qui existent aujourd’hui opèrent dans une zone grise réglementaire, même s’ils peuvent réaliser des expériences très puissantes. Les cadres juridiques, tels que la Convention sur les armes biologiques, conçus pour un monde dans lequel les installations physiques et la recherche contrôlée par l’homme étaient les seuls moyens de créer des substances biologiques, auront du mal à s’adapter à cette nouvelle réalité de l’IA.
Cela dit, les laboratoires cloud autonomes nous offrent des voies sans précédent pour l’expérimentation clinique. Entre de bonnes mains, cela pourrait améliorer notre capacité à développer des traitements salvateurs et à permettre un traitement personnalisé à grande échelle. Aussi graves que puissent être les dommages potentiels, il y a de nombreuses raisons de chercher à faire fonctionner ce système en toute sécurité.
Si nous voulons atteindre cet équilibre délicat, nous devons de toute urgence mettre à jour nos traités et amender nos lois. Mais nous ne pouvons pas nous arrêter là. En construisant des systèmes de laboratoire automatisés, la responsabilité doit être intégrée dès le départ. Les expériences conçues, mises en œuvre et affinées par des agents d’IA doivent être identifiables, auditées et traçables à des décideurs humains.
Conclusion
Les laboratoires cloud ont permis une science à distance en rendant la recherche résiliente face aux disruptions physiques. Ce faisant, ils ont également supprimé de nombreuses frictions qui, sans que nous le sachions, nous gardaient en sécurité. Les avancées rapides de l’IA ont non seulement accéléré ce processus, mais ont également permis une expansion massive des capacités scientifiques.
Il y a généralement une petite fenêtre entre la naissance d’une nouvelle technologie et la reconnaissance par la société des dommages qu’elle peut causer. Cette période est celle où elle peut rester non réglementée et être utilisée sans l’autorisation des autorités. Avec l’évolution rapide de l’IA, cette fenêtre revêt une importance bien plus grande que beaucoup d’entre nous ne le réalisent. Et dans le cas des laboratoires autonomes, en particulier, nous devons nous assurer qu’elle reste aussi étroite que possible. Étant donné les dommages qui pourraient en résulter, nous devons non seulement la fermer rapidement, mais veiller à ce qu’elle ne s’ouvre jamais suffisamment pour provoquer des conséquences catastrophiques.
