Obtenir la bonne sécurité pour l’IA Agentique
Ce post est sponsorisé par Deloitte et Google Cloud.
L’importance de l’IA Agentique
L’IA Agentique s’avère précieuse pour les entreprises en exploitant des informations provenant de l’IA générative pour prendre des décisions autonomes et effectuer des tâches avec une supervision humaine limitée.
Cette technologie peut automatiser des flux de travail à travers l’organisation, incluant :
- La gestion des menaces de cybersécurité,
- La personnalisation des matériaux marketing,
- Le traitement des retours,
- La gestion des stocks, et plus encore.
Enrichir l’IA avec une logique de mission lui permet également d’apprendre des résultats et de s’améliorer avec le temps.
Défis de sécurité et de gouvernance
Avec son potentiel immense, l’IA Agentique pose de nouveaux défis en matière de sécurité et de gouvernance que les organisations doivent aborder, comme le soulignent Deloitte et Google Cloud :
Contrôle d’accès et sécurité
Les organisations utilisent généralement des listes de contrôle d’accès pour protéger leurs données, mais ces listes existent souvent au sein de systèmes individuels. À mesure que les agents IA opèrent à travers différents systèmes, de nouvelles méthodes de contrôle doivent être mises en place.
Hallucinations et échecs en cascade
L’IA générative comporte le risque d’hallucinations ou d’informations inexactes, car l’IA utilise une approximation pour formuler ses résultats. La communication entre les agents IA peut entraîner une erreur ou une mauvaise entrée, créant une série d’échecs en cascade. L’utilisation de technologies comme Vertex AI Search peut aider à assurer que les résultats sont basés sur des faits pertinents à l’organisation.
Gaps de compétences et d’expérience
Le développement et l’utilisation de systèmes IA Agentique de niveau entreprise nécessitent des employés hautement qualifiés. Cependant, un manque de personnel connaissant ces technologies contribue aux défis de sécurité. Une bonne base de sécurité est essentielle, même pour les agents IA les plus avancés.
Retour sur investissement et navigation dans l’inconnu
Les perspectives concernant le retour sur investissement de l’IA s’améliorent à mesure que les coûts diminuent, grâce à des modèles plus efficaces et des avancées telles que la distillation de modèles. Malgré ces tendances positives, certains dirigeants restent préoccupés par le comportement imprévisible des agents autonomes dans des environnements critiques.
Un cadre de sécurité pour l’IA Agentique
Pour sécuriser l’IA Agentique, Deloitte et Google Cloud recommandent une méthodologie structurée comprenant :
- Un cadre de gouvernance : Les organisations doivent s’assurer que l’IA s’aligne sur leurs stratégies. Une structure comme le Trustworthy AI™ Framework de Deloitte fournit les contrôles de gouvernance et de risque nécessaires pour aligner l’IA sur la stratégie de l’entreprise et les attentes réglementaires.
- Supervision humaine : L’IA évolue rapidement. Un processus de révision impliquant des humains doit être introduit à des points de contrôle clés pour identifier les risques précocement.
- Fiabilité des données : Des données inexactes peuvent introduire des biais. Des données d’entreprise fiables aident à réduire les biais de l’IA et à renforcer la prise de décision.
L’IA pour les entreprises évolue rapidement. Des modèles plus efficaces, une architecture plus petite et des innovations comme la distillation de modèles aident à réduire les coûts et facilitent une utilisation plus large. Les agents autonomes de demain seront dignes de confiance dans des scénarios complexes et prioritaires. Les organisations qui réussiront seront probablement celles qui mettront en place les bons contrôles et le bon cadre de sécurité dès aujourd’hui.
