Gouvernance de l’IA : un retard face à l’adoption croissante, selon une enquête de Cato Networks
Cet article examine les résultats d’une enquête mondiale menée auprès de plus de 600 responsables informatiques, révélant des lacunes critiques dans la surveillance de l’IA. Bien que 69 % des répondants n’aient pas de système formel pour suivre l’adoption de l’IA, la majorité des entreprises continue d’adopter ces technologies à un rythme alarmant.
Un décalage préoccupant
Selon l’enquête, plus de la moitié (61 %) des répondants ont trouvé des outils d’IA non autorisés dans leur environnement. Cependant, seulement 26 % ont mis en place des solutions pour surveiller l’utilisation de l’IA. Près de la moitié (49 %) des répondants ne suivent pas du tout l’utilisation de l’IA ou abordent la question de manière réactive.
Etay Maor, stratège en sécurité chez Cato Networks, déclare : “Dans de nombreuses entreprises, l’adoption de l’IA se fait de bas en haut. Les employés sont toujours attirés par les outils d’IA qui leur semblent familiers. Cependant, sans visibilité et gouvernance appropriées, les entreprises élargissent leur surface d’attaque, souvent sans le réaliser.”
Préparation à la sécurité de l’IA insuffisante
L’enquête met en lumière une faille critique dans la manière dont les entreprises abordent l’adoption de l’IA. Selon 71 % des répondants, l’utilisation principale de l’IA est d’augmenter la productivité et l’efficacité. Toutefois, 69 % rapportent ne pas disposer d’un système de surveillance pour l’adoption de l’IA. La majorité des entreprises ignorent quels outils d’IA les employés utilisent, quelles données ils partagent et quels risques de conformité émergent.
Ce manque de gouvernance va au-delà de la surveillance et du contrôle. Seulement 13 % des répondants jugent la gestion des risques liés à l’IA non autorisée “très efficace”. Moins d’un répondant sur dix (9 %) pense que son organisation a une défense “très efficace” contre les menaces cybernétiques générées par l’IA, telles que les deepfakes, les hallucinations et les attaques par injection de prompts.
Les enjeux du Shadow AI
Le Shadow AI fonctionne de manière similaire au shadow IT : une technologie non autorisée est adoptée pour résoudre un problème immédiat, mais les risques liés au traitement des données, à l’entraînement des modèles et au manque de prise de décision claire en matière d’IA posent des problèmes de sécurité. La majorité des répondants (53 %) se déclarent très ou extrêmement préoccupés par les risques de sécurité liés à l’IA.
“Il ne s’agit pas de savoir s’il y a une utilisation d’IA non autorisée au sein d’une entreprise, mais si vous avez la capacité de la détecter, de la gouverner et de la sécuriser avant qu’un problème ne survienne,” affirme Maor. “Notre recherche montre que la plupart des entreprises doivent agir rapidement pour gagner en visibilité et en contrôle sur leur utilisation de l’IA.”
Conclusion
Les résultats de cette enquête soulignent l’urgence pour les entreprises de mettre en place des systèmes de gouvernance et de surveillance robustes afin de gérer les risques associés à l’adoption de l’IA. Alors que l’utilisation de l’IA continue de croître, il est vital que les organisations prennent des mesures proactives pour sécuriser leur environnement technologique.
