Cadre réglementaire pour l’IA agentique à Singapour

Agentic AI obtient un cadre de règles : Singapour insiste sur le fait que les humains restent aux commandes

Alors que les entreprises d’intelligence artificielle (IA) continuent de promouvoir les avantages des agents IA capables d’automatiser certains flux de travail dans un environnement d’entreprise, le gouvernement de Singapour a publié un nouveau cadre destiné à protéger contre les risques posés par le déploiement de l’IA agentique, tout en garantissant un développement responsable de la technologie.

L’Autorité de développement des médias et des communications de Singapour (IMDA) a publié son Modèle de cadre de gouvernance IA pour l’IA agentique, mettant l’accent sur les risques de cette technologie et son impact sur les humains sur le lieu de travail.

Évolution du cadre de gouvernance de l’IA

Le nouveau cadre, publié ce mois-ci, s’appuie sur le Modèle de cadre de gouvernance IA de Singapour de 2019, qui se concentrait alors sur des principes tels que la transparence, l’équité et l’humain-centricité. Les discussions sur les risques de l’IA, en particulier l’IA agentique et la marche vers l’intelligence artificielle générale (AGI), se multiplient.

Singapour est l’un des pays utilisant l’IA dans les services gouvernementaux, ayant déployé avec succès des assistants virtuels pour son secteur public. L’assistant virtuel « Ask Jamie » a déjà répondu à plus de 15 millions de requêtes depuis 2014, à travers 80 sites gouvernementaux, avec un taux de résolution de 50 %.

Importance de la supervision humaine

Le cadre de l’IA agentique de Singapour souligne que le point de départ des risques associés à l’IA agentique est basé sur les modèles de langage de grande taille (LLMs). Les menaces sont doubles, incluant des lacunes inhérentes comme l’hallucination, le biais, la fuite de données, ainsi que des vulnérabilités logicielles.

Il est clairement indiqué que la supervision humaine reste un élément crucial et obligatoire. Bien que les agents puissent agir de manière autonome, la responsabilité humaine doit toujours s’appliquer. Une fois que le « feu vert » est donné pour déployer l’IA agentique, une organisation doit prendre des mesures immédiates pour rendre les humains significativement responsables.

Considérations pour le déploiement de l’IA agentique

Les organisations doivent établir des processus techniques et des contrôles pour l’ensemble du déploiement de l’IA, y compris des tests de sécurité de base et une surveillance continue. Le cadre encourage également les organisations à peser les cas d’utilisation appropriés pour le déploiement d’agents en tenant compte des facteurs spécifiques, tels que l’impact du risque.

Une étude de McKinsey & Co. a estimé que les systèmes d’IA agentique pourraient débloquer entre 2,6 et 4,4 billions de dollars de valeur chaque année à travers plus de 60 cas d’utilisation de l’IA générative.

Évaluation des agents IA

L’entreprise IA Anthropic, dans sa méthodologie d’évaluation, identifie trois types de classificateurs qui définissent un agent. Parmi eux, les tests basés sur le code, les évaluations basées sur le modèle et les paramètres de jugement humain.

Il est facile de confondre les agents IA comme une forme unique d’intelligence artificielle, mais il s’agit d’une technologie multifacette, incluant des agents de codage, des agents conversationnels, des agents de recherche et des agents d’utilisation logicielle.

Limitation des pouvoirs des agents IA

Pour les organisations déployant l’IA agentique, il est impératif de s’assurer que les pouvoirs des agents sont limités pour équilibrer les risques potentiels. Les politiques doivent définir l’accès des agents aux outils et données minimaux nécessaires pour accomplir leurs tâches.

Les agents doivent également être identifiés. La gestion des identités et le contrôle d’accès sont des moyens clés pour permettre la traçabilité et la responsabilité. À mesure que les agents deviennent plus autonomes, la gestion des identités doit également être étendue aux agents.

Scroll to Top