Gouvernance de l’IA en cybersécurité : un retard préoccupant

Une étude révèle que la gouvernance de la sécurité de l’IA accuse un retard

OpenText a récemment publié une étude mondiale sur l’utilisation de l’IA dans la cybersécurité, mettant en évidence que de nombreuses organisations déploient des systèmes d’IA générative avant d’avoir mis en place des mesures de gouvernance et de sécurité.

Résumé de l’étude

Réalisée en collaboration avec l’institut Ponemon, cette étude a interrogé 1 878 professionnels de l’informatique et de la sécurité IT à travers des régions telles que l’Amérique du Nord, l’Asie-Pacifique, l’Europe, le Moyen-Orient, l’Afrique et l’Amérique latine. Les résultats montrent que 52% des entreprises ont déployé en totalité ou en partie l’IA générative, mais seulement 1 sur 5 a rapporté un niveau de maturité en matière de cybersécurité.

Définition de la maturité de l’IA

Cette étude définit la maturité comme étant le déploiement complet de l’IA dans les activités de cybersécurité tout en évaluant les risques de sécurité. Selon cette mesure, 79% des organisations n’ont pas encore atteint une maturité complète.

Les lacunes de gouvernance

Les résultats soulignent les faiblesses des politiques et des contrôles entourant les systèmes d’IA. Seulement 43% des répondants ont indiqué que leur organisation avait adopté une stratégie basée sur les risques pour gouverner les systèmes d’IA et traiter des menaces telles que le biais, les problèmes de sécurité et les préoccupations éthiques.

Problèmes de confidentialité des données

La confidentialité des données représente également un point faible. Seulement 41% des répondants ont déclaré que leur organisation avait des politiques de confidentialité des données spécifiques à l’IA, tandis que 59% ont noté que l’IA compliquait le respect des réglementations en matière de confidentialité et de sécurité.

Risques liés aux entrées utilisateur

Environ 58% des répondants ont indiqué que les risques liés aux entrées utilisateur, y compris les réponses trompeuses, inexactes ou nuisibles, étaient très difficiles à réduire. De plus, 56% ont rapporté des difficultés à gérer les risques utilisateurs, y compris la propagation involontaire de désinformation.

Préoccupations relatives au biais

Près des deux tiers des répondants, soit 62%, ont déclaré qu’il était très difficile ou extrêmement difficile de minimiser les risques de modèle et de biais, y compris les résultats injustes ou discriminatoires.

Résultats mitigés

Le sondage suggère que les gains opérationnels souvent associés à l’IA en matière de sécurité ne sont pas encore largement établis. Seulement 51% des répondants ont déclaré que l’IA était efficace pour réduire le temps nécessaire à la détection des anomalies ou des menaces émergentes.

Moins de la moitié, soit 48%, ont jugé que l’IA était efficace pour la détection des menaces et pour découvrir des insights plus profonds tout en réduisant la charge de travail manuelle. Les résultats indiquent que de nombreuses organisations ont encore du mal à transformer le déploiement de l’IA en améliorations constantes des opérations de sécurité.

Problèmes de fiabilité

Le rapport a révélé que 45% des répondants citaient les erreurs dans les règles de décision de l’IA comme un obstacle majeur à son efficacité, tandis que 40% ont souligné les erreurs dans les données d’entrée utilisées par les systèmes d’IA.

Confiance et explicabilité

La confiance et l’explicabilité demeurent également des obstacles. Moins de la moitié des organisations, soit 47%, ont déclaré que leurs modèles d’IA pouvaient apprendre des normes robustes et prendre des décisions sûres de manière autonome. Cette absence de confiance incite plus de la moitié des répondants, soit 51%, à estimer qu’une supervision humaine est nécessaire dans la gouvernance de l’IA, car les attaquants peuvent s’adapter rapidement.

Conclusion

La maturité de l’IA ne se résume pas à l’adoption d’outils d’IA, mais implique également une démarche responsable. La sécurité et la gouvernance sont fondamentales pour tirer un réel avantage de l’IA. Lorsqu’elles sont intégrées dès le départ dans les systèmes d’IA, les organisations peuvent fonctionner avec une plus grande transparence, surveiller les systèmes en continu et faire confiance aux résultats fournis par l’IA.

Les résultats de cette étude soulignent un écart entre l’adoption et le contrôle. Les entreprises introduisent l’IA dans des opérations critiques, mais beaucoup ne semblent pas encore disposer des règles de confidentialité, des cadres de gouvernance ou de la confiance nécessaires pour s’appuyer sur ces systèmes avec moins d’intervention humaine.

Pour avancer, les organisations doivent établir des contrôles clairs dès le début. Les leaders de cette prochaine phase d’adoption de l’IA seront ceux qui intègrent la transparence et le contrôle dès le départ.

Scroll to Top