Singapour lance le premier cadre mondial de gouvernance pour l’IA agentique
Le 22 janvier 2026, Singapour a dévoilé le Modèle de Cadre de Gouvernance pour l’IA Agentique (MGF) lors du Forum Économique Mondial 2026, réaffirmant son engagement à suivre le rythme des avancées rapides en matière d’intelligence artificielle (IA).
Ce cadre représente le premier modèle de gouvernance dédié aux systèmes d’IA agentique, qui sont des agents d’IA capables de raisonner, de planifier et d’exécuter des tâches de manière indépendante au nom des humains.
Bien que le MGF n’impose pas d’obligations légales contraignantes, il indique clairement la trajectoire réglementaire de Singapour et établit des meilleures pratiques pour l’adoption par l’industrie. Le cadre s’appuie sur la suite d’initiatives de gouvernance de l’IA déjà en place à Singapour, y compris le Cadre de Gouvernance de l’IA de 2019, le cadre de test AI Verify, et le Pilote d’Assurance de l’IA Mondiale lancé en 2025. Ce qui distingue ce nouveau cadre des initiatives précédentes, c’est son accent sur les risques uniques posés par les outils d’IA de plus en plus autonomes, tels que les actions non autorisées, l’utilisation abusive des données, la prise de décision biaisée et les perturbations systémiques.
Qu’est-ce que l’IA agentique ?
L’IA agentique désigne des systèmes capables de planifier, de raisonner et d’agir à travers plusieurs étapes pour atteindre des objectifs avec une intervention humaine minimale. Contrairement à l’IA générative, qui produit des sorties en réponse à des demandes, l’IA agentique peut initier des actions, s’adapter à de nouvelles informations et interagir avec d’autres agents ou systèmes pour compléter des tâches de manière autonome.
Au cœur de nombreux systèmes agentiques se trouvent des modèles linguistiques qui agissent comme le cerveau central de l’agent. Ces modèles interprètent des instructions en langage naturel, élaborent des stratégies pour atteindre des objectifs, puis activent des outils connectés tels que des calculatrices, des calendriers et des interfaces d’application. Ces outils permettent à l’agent d’effectuer des tâches comme la mise à jour de dossiers, le traitement de paiements ou le contrôle de dispositifs.
Les systèmes agentiques peuvent être déterministes, produisant des résultats cohérents pour des entrées identiques, ou non déterministes, où les résultats varient même avec la même entrée. Ce dernier introduit une imprévisibilité, nécessitant une surveillance et une gouvernance plus strictes.
Risques de déploiement de l’IA agentique
Bien que des risques tels que l’hallucination et le biais soient déjà associés à l’IA, ils peuvent causer davantage de dommages dans un contexte d’IA agentique, car les erreurs peuvent se répliquer à travers plusieurs sorties et processus.
La nature autonome de l’IA agentique introduit plusieurs catégories de risques uniques que les organisations doivent aborder. Le MGF identifie cinq catégories :
- Actions erronées : Les agents peuvent exécuter des tâches incorrectes, par exemple en planifiant des rendez-vous à la mauvaise date ou en générant un code défectueux.
- Actions non autorisées : Les agents pourraient agir en dehors de leur champ d’autorisation, par exemple en exécutant des transactions sans approbation humaine.
- Actions biaisées ou injustes : Les décisions prises par les agents peuvent entraîner des résultats discriminatoires.
- Violations de données : Les informations sensibles peuvent être exposées ou utilisées à mauvais escient.
- Perturbation des systèmes connectés : Des dysfonctionnements peuvent déstabiliser les systèmes liés.
Comment le MGF aborde les risques
Dimension 1 : Évaluer et limiter les risques tôt
Les systèmes d’IA agentique étant adaptatifs, les organisations doivent évaluer si un cas d’utilisation proposé est approprié avant le déploiement. L’évaluation des risques doit prendre en compte l’impact et la probabilité d’erreur.
Dimension 2 : Responsabilité humaine
Le cadre précise que la responsabilité incombe finalement aux organisations et aux individus qui supervisent l’IA agentique. La responsabilité doit être répartie entre les équipes, notamment la direction, les équipes produit et les équipes de cybersécurité.
Dimension 3 : Contrôles techniques tout au long du cycle de vie
Des garde-fous techniques doivent être intégrés à chaque étape, de la conception à la mise en œuvre.
Dimension 4 : Responsabilité des utilisateurs finaux
Les organisations doivent responsabiliser les utilisateurs finaux en matière d’interaction avec l’IA agentique. La transparence est cruciale, les utilisateurs doivent être informés des actions que l’agent peut effectuer.
Conclusion
Le MGF définit des paramètres clairs pour l’utilisation responsable de l’IA agentique, offrant aux organisations des directives pratiques pour instaurer la confiance dans le déploiement de technologies avancées.
Les entreprises devraient commencer par examiner leurs structures de gouvernance à la lumière des quatre dimensions du cadre, combler les lacunes et renforcer les politiques et les mécanismes de supervision.
