Sécuriser les IA autonomes : meilleures pratiques

Guide conjoint des gouvernements pour le déploiement sécurisé des agents IA

Contexte et objectifs

Des agences de cybersécurité des États-Unis, d’Australie, du Canada, de Nouvelle‑Zélande et du Royaume-Uni ont publié un guide visant à intégrer les agents IA — des logiciels autonomes basés sur de grands modèles de langage — dans les cadres de sécurité existants. L’objectif est de prévenir les risques liés à leur utilisation dans les infrastructures critiques et les secteurs de la défense.

Principes de sécurisation recommandés

Le guide insiste sur l’application de principes éprouvés : zero trust, défense en profondeur et principe du moindre privilège. Les agents doivent être traités comme tout autre composant de la chaîne de cybersécurité, sans créer de discipline séparée.

Cinq catégories de risques identifiées

1. Privilèges excessifs : Un accès trop large à un agent peut entraîner des dommages majeurs en cas de compromission.

2. Défauts de conception et de configuration : Une mauvaise configuration crée des vulnérabilités avant même le déploiement.

3. Risques comportementaux : L’agent peut poursuivre un objectif de façon imprévue, contournant les intentions du concepteur.

4. Risques structurels : L’interconnexion d’agents peut propager des défaillances à travers l’ensemble du système.

5. Responsabilité : Les décisions des agents sont difficiles à tracer, rendant l’audit et la compréhension des incidents complexes.

Gestion de l’identité et des accès

Chaque agent doit disposer d’une identité vérifiée et cryptographiquement sécurisée, d’identifiants à courte durée de vie et d’un chiffrement complet des communications. Pour les actions à fort impact, une approbation humaine est requise, la définition de ces actions relevant du concepteur du système.

Problèmes persistants

Le guide souligne le défi du prompt injection, où des instructions cachées dans les données peuvent détourner le comportement de l’agent. Ce problème reste largement non résolu et nécessite une vigilance accrue.

Appel à la recherche et à la collaboration

Les agences reconnaissent que le domaine de la sécurité n’a pas encore rattrapé le rythme d’évolution des agents IA. Elles appellent à davantage de recherche et à la collaboration entre les parties prenantes pour développer de nouveaux cadres et standards.

Conclusion

En l’absence de pratiques et de standards matures, les organisations doivent supposer que les agents IA peuvent se comporter de manière inattendue. Elles sont invitées à planifier leurs déploiements en priorisant la résilience, la réversibilité et la containment des risques plutôt que les gains d’efficacité immédiats.

Scroll to Top