L’écart de gouvernance et de sécurité dans l’adoption de l’IA

OpenText met en garde contre le fossé en matière de sécurité et de gouvernance de l’IA

OpenText a publié une étude en collaboration avec l’Institut Ponemon, révélant que de nombreuses organisations déploient de l’IA générative sans mettre en place des mesures adéquates de sécurité et de gouvernance. Selon l’enquête, 52 % des entreprises ont pleinement ou partiellement déployé de l’IA générative.

Un fossé de gouvernance

Seulement une entreprise sur cinq a atteint ce que l’étude décrit comme la maturité de l’IA en matière de cybersécurité, où l’IA est entièrement intégrée dans les activités de sécurité et où les risques sont évalués. Près de 8 entreprises sur 10 (79 %) n’ont pas atteint ce stade.

L’adoption de politiques reste également limitée. Juste 41 % des organisations ont des politiques de confidentialité des données spécifiques à l’IA, tandis que 43 % ont adopté une approche de gouvernance basée sur les risques, couvrant des questions telles que le biais, les menaces à la sécurité et les préoccupations éthiques.

Le rapport indique que le rythme de mise en œuvre dépasse les contrôles internes. Près de six répondants sur dix (59 %) ont déclaré que l’IA rend plus difficile le respect des réglementations en matière de confidentialité et de sécurité, mais la plupart des organisations n’ont pas introduit de règles de confidentialité dédiées pour les systèmes d’IA.

Préoccupations opérationnelles

Les préoccupations opérationnelles étaient également marquées. Cinquante-huit pour cent des répondants ont indiqué que les risques liés aux prompts ou aux entrées étaient très ou extrêmement difficiles à minimiser. Plus de la moitié (56 %) a signalé des défis dans la gestion des risques pour les utilisateurs, y compris la propagation involontaire de la désinformation.

Questions de confiance

L’étude a également examiné si les systèmes d’IA fournissent les avantages escomptés dans les opérations de sécurité. Seulement 51 % des répondants ont déclaré que l’IA était efficace pour réduire le temps nécessaire à la détection des anomalies ou des menaces émergentes.

La confiance était plus faible pour des utilisations plus avancées. Moins de la moitié, soit 48 %, ont évalué l’IA comme efficace pour la détection des menaces et l’exploration d’informations plus approfondies tout en réduisant le travail manuel.

Le biais et la fiabilité demeurent des obstacles majeurs. Près des deux tiers des répondants (62 %) ont déclaré qu’il était très ou extrêmement difficile de minimiser les risques de biais et de modèles, y compris les résultats injustes ou discriminatoires.

D’autres obstacles concernent la manière dont les systèmes d’IA sont construits et utilisés. Quarante-cinq pour cent ont cité les erreurs dans les règles de décision de l’IA comme un problème majeur, tandis que 40 % ont signalé des erreurs dans les données alimentées dans les systèmes d’IA.

Un long chemin vers l’autonomie

Pour de nombreuses entreprises, l’IA entièrement autonome semble encore loin. Seulement 47 % ont déclaré que leurs modèles d’IA pouvaient apprendre des normes robustes et prendre des décisions sûres de manière autonome, tandis que 51 % estiment qu’une supervision humaine est nécessaire dans la gouvernance de l’IA car les attaquants peuvent s’adapter rapidement.

Muhi Majzoub, EVP Produit et Ingénierie chez OpenText, a souligné que le problème va au-delà de l’adoption. “La maturité de l’IA ne concerne pas seulement l’adoption des outils d’IA, mais aussi leur utilisation responsable”, a-t-il déclaré.

Il a ajouté que la sécurité et la gouvernance doivent être intégrées dès le début. “La sécurité et la gouvernance sont fondamentales pour tirer une réelle valeur de l’IA. Lorsqu’elles sont intégrées dans les systèmes d’IA dès le départ, les organisations peuvent fonctionner avec plus de transparence, surveiller les systèmes en continu et faire confiance aux résultats fournis par l’IA.”

Échantillon régional

L’enquête a recueilli des réponses d’exécutifs, de décideurs et de praticiens impliqués dans la sécurité informatique, l’ingénierie, l’infrastructure, les risques et la conformité, ainsi que d’autres domaines liés à la stratégie de sécurité et d’IA. L’échantillon interrégional visait à capturer les points de vue d’organisations de différentes tailles et secteurs à mesure que l’adoption de l’IA s’élargit.

Pour les entreprises envisageant des déploiements supplémentaires d’IA, les chiffres suggèrent que la mise en œuvre avance plus rapidement que les contrôles nécessaires pour gérer les risques. Cela est particulièrement significatif à mesure que les outils d’IA deviennent plus intégrés dans les opérations quotidiennes et plus étroitement liés aux processus commerciaux critiques.

Majzoub a conclu que les organisations les mieux placées pour la prochaine étape de l’adoption seront celles qui aborderont la supervision dès le départ. “Les leaders de cette prochaine phase d’adoption de l’IA seront ceux qui intègrent transparence et contrôle dès le départ”, a-t-il déclaré. “À mesure que l’IA devient intégrée dans les opérations quotidiennes, les organisations ont besoin d’une gestion sécurisée de l’information comme fondation ; des cadres de gouvernance clairs, des contrôles basés sur des politiques, et une surveillance continue pour garantir que les systèmes d’IA restent fiables et conformes. Il est tout aussi important d’aligner l’IA avec les bonnes données, pratiques de sécurité et supervision dès le départ pour que l’innovation puisse évoluer de manière responsable et apporter une valeur commerciale mesurable.”

Scroll to Top