Risques de l’Intelligence Artificielle Agentique

« Agentic AI peut agir de manière autonome » : une alerte à prendre au sérieux

La police de la ville d’Hyderabad a récemment mis en garde les citoyens contre l’usage de l’Intelligence Artificielle Agentique. Le commissaire de la police, VC Sajjanar, a souligné que des agents robotiques autonomes ont pénétré des secteurs critiques tels que les banques, les hôpitaux et les réseaux électriques.

Ces agents numériques accomplissent des tâches de manière indépendante sans intervention humaine, suscitant de vives inquiétudes quant à la perte de contrôle sur ceux-ci. Le commissaire a exprimé ses préoccupations concernant l’utilisation de l’IA dans le secteur bancaire et de la santé.

Une nouvelle ère de l’Intelligence Artificielle

Dans un message diffusé sur les réseaux sociaux, Sajjanar a déclaré : « Le parcours de l’Intelligence Artificielle (IA) a pris un nouveau tournant. Jusqu’à récemment, limité à de simples ‘chatbots’ qui répondaient à nos questions, cette technologie a évolué vers des systèmes capables de prendre des décisions de manière autonome et d’exécuter des tâches. »

Pour expliquer ce qu’est l’IA Agentique, le commissaire a donné un exemple : « Si vous demandez à une IA classique, ‘Quel temps fait-il dehors ?’, elle se contente de fournir l’information. Mais l’IA Agentique, réalisant que le temps est mauvais, pourrait fermer les fenêtres et ajuster la température de l’air conditionné. »

Les capacités et les défis de l’IA Agentique

Ces agents autonomes peuvent, par exemple, geler des comptes en cas de transactions suspectes dans le secteur financier, modifier les dosages de médicaments en fonction des niveaux de pression artérielle et de sucre des patients dans les hôpitaux, ou encore contrôler la performance des machines dans les industries. Leur spécificité réside dans leur capacité à discuter avec d’autres agents IA et à collaborer pour accomplir une tâche.

Cependant, cette autonomie pose un défi majeur. Ces agents, qui prennent des milliers de décisions en quelques minutes sans supervision humaine, peuvent entraîner des dangers considérables en cas d’erreur. Il existe un risque de cybercriminalité, où des criminels pourraient détourner le comportement de ces agents pour commettre des actes répréhensibles. De plus, il y a le risque de comportement non intentionnel, où l’agent comprend mal la tâche assignée et prend une mauvaise direction pour atteindre l’objectif.

Vers une gouvernance stricte de l’IA

Il est donc impératif d’établir des règles strictes concernant la liberté accordée à ces agents et les données auxquelles ils peuvent accéder. Des cadres de confiance doivent être conçus pour garantir que l’autorisation humaine soit sollicitée avant de prendre des décisions cruciales. Les experts en technologie avertissent que si nous ne contrôlons pas judicieusement la vitesse de l’automatisation, les pertes qu’elle engendre seront supérieures aux bénéfices qu’elle apporte.

Scroll to Top