Superintelligent AI : Faut-il stopper son développement ?
Le 29 janvier 2026, la Chambre des Lords examinera la question suivante : Quelles sont les intentions du gouvernement concernant une proposition de moratoire international sur le développement de l’IA superintelligente ?
1. Définitions et niveaux de l’IA
L’IA peut être définie comme la capacité des systèmes informatiques à effectuer des tâches nécessitant normalement l’intelligence humaine. Bien qu’elle présente de nombreux avantages, l’IA pose également des risques, tels que ceux liés à la confidentialité des données, aux biais, à la désinformation et à la cybersécurité.
Au sein de cette définition, on distingue plusieurs types d’IA, allant de l’IA étroite, conçue pour des tâches spécifiques, à l’IA générale, capable d’apprendre et de raisonner.
- IA étroite : conçue pour effectuer une tâche spécifique, utilisant des jeux de données particuliers.
- Intelligence artificielle générale (AGI) : capable de réaliser n’importe quelle tâche intellectuelle qu’un humain peut accomplir.
- Apprentissage automatique : méthode permettant à un système d’apprendre et de s’améliorer à partir d’exemples.
- Apprentissage profond : type d’apprentissage automatique inspiré par le fonctionnement du cerveau humain.
Les chercheurs ont identifié six niveaux de performance de l’IA, allant de aucune IA à IA surhumaine.
2. Intelligence artificielle superintelligente (ASI)
Le concept d’ASI désigne une intelligence artificielle hypothétique dont les capacités intellectuelles dépassent celles des humains. Pour réaliser une ASI, il est nécessaire d’atteindre une AGI, capable d’apprendre et de résoudre des problèmes de manière aussi flexible qu’un humain.
2.1 Développement de l’ASI
Les opinions divergent quant à la rapidité du développement de l’ASI. Sam Altman, PDG d’OpenAI, a déclaré en septembre 2024 qu’il pourrait être possible d’atteindre l’ASI dans quelques milliers de jours. Cependant, d’autres chercheurs, comme Flora Salim, soutiennent que l’ASI n’est pas imminente, citant des limitations dans la résolution de problèmes complexes par les modèles de langage.
2.2 Avantages et risques de l’ASI
Le développement de l’ASI pourrait transformer le monde de manière fondamentale. Les avantages incluent la capacité d’analyser d’énormes volumes de données et de résoudre des problèmes complexes dans des domaines tels que la santé, la finance et la recherche scientifique.
Cependant, des préoccupations demeurent. Les chercheurs ont averti que l’ASI pourrait également conduire à des scénarios catastrophiques si elle n’est pas contrôlée correctement, comme l’utilisation d’armes autonomes.
3. Régulation et appels à un moratoire
Les risques et avantages posés par l’IA ont conduit à des appels à une régulation rapide. Un exemple marquant est la lettre ouverte signée par plus de 1 000 experts en IA en mars 2023, appelant à une pause de six mois sur le développement d’IA géantes pour en étudier les capacités et dangers.
En octobre 2025, l’Institut pour l’avenir de la vie a organisé une déclaration appelant à une interdiction mondiale sur l’ASI, soutenue par de nombreuses personnalités influentes dans le domaine de l’IA.
4. Politique gouvernementale sur l’IA et l’ASI
Le Royaume-Uni ne dispose pas de réglementation spécifique sur l’IA. En revanche, des cadres juridiques existants régissent l’utilisation de l’IA. En 2023, le gouvernement a lancé l’Institut de sécurité de l’IA (AISI) pour tester les systèmes d’IA et identifier les risques de sécurité.
Le plan d’action de janvier 2025 vise à embrasser le développement de l’IA tout en garantissant la sécurité et la protection des citoyens.
5. Conclusion
Le développement de l’IA superintelligente pose des défis majeurs et nécessite une attention particulière. La régulation appropriée et la recherche sur les risques associés à l’ASI seront essentielles pour garantir que cette technologie puisse bénéficier à l’humanité tout en minimisant les dangers potentiels.
