Les entreprises européennes adoptent l’IA sans gouvernance adéquate
Les organisations européennes déploient des systèmes d’intelligence artificielle à un rythme rapide, mais échouent à mettre en place des contrôles de sécurité et de gouvernance suffisants pour les encadrer.
C’est la conclusion d’une nouvelle étude de l’association professionnelle de gouvernance IT, ISACA, qui a sondé 681 professionnels de la technologie et des affaires en Europe entre le 6 et le 22 février.
Un manque de confiance dans la sécurité des systèmes IA
Il est alarmant de constater que 59 % des répondants ont admis qu’ils n’étaient pas sûrs que leur organisation serait capable d’arrêter un système d’IA en cas d’incident de sécurité. Juste un peu plus d’un cinquième des répondants (21 %) ont déclaré qu’ils pourraient le faire dans les 30 minutes suivant un incident. ISACA souligne que cela indique que, si un système d’IA était “compromis ou en panne”, la plupart des organisations seraient incapables de réagir pendant au moins une demi-heure.
Des obligations de gouvernance négligées
La raison principale de l’incapacité des organisations à maîtriser les systèmes d’IA problématiques semble être qu’elles ne prennent pas leurs obligations de gouvernance suffisamment au sérieux. Actuellement, 33 % des organisations n’ont aucune règle ou procédure formelle obligeant les employés à divulguer s’ils ont utilisé l’IA au travail.
Parallèlement, 20 % des organisations ne savent pas à qui tenir des comptes lorsque les systèmes d’IA échouent. Seulement 38 % ont déclaré que cette responsabilité incomberait au conseil d’administration ou à un dirigeant.
Selon ISACA, ces statistiques sont préoccupantes car la loi sur l’IA de l’Union européenne exige que les organisations déployant des systèmes d’IA soient transparentes sur leur utilisation de l’IA pour améliorer la compréhension des employés et soient responsables en cas de problèmes.
Les attentes croissantes des régulateurs
Il existe également une attente croissante parmi les régulateurs mondiaux selon laquelle les équipes de direction devraient être tenues responsables des problèmes liés à l’IA, montrant que la sécurité de cette technologie est désormais une priorité majeure au niveau du conseil.
Un tableau d’ensemble plus positif pour la supervision de l’IA
En ce qui concerne la supervision de l’IA, l’étude dresse un tableau légèrement meilleur. Quarante pour cent des organisations ont mis en œuvre des règles garantissant que les systèmes d’IA ne peuvent pas prendre de décision sans l’approbation préalable d’un humain, ce qui s’aligne avec les attentes réglementaires.
Conclusion
Chris Dimitriadis, directeur de la stratégie mondiale chez ISACA, a déclaré : “Ce que cette recherche reflète, c’est que notre soif d’innover n’est pas à la hauteur de notre désir de gouverner le changement, nous exposant à des risques critiques.”
Les outils pour gouverner l’IA de manière responsable existent déjà. La gestion des risques, les contrôles de prévention, les mécanismes de détection, la réponse aux incidents et les stratégies de récupération sont les fondations de bonnes pratiques de cybersécurité, et elles doivent être appliquées à l’IA avec la même rigueur et urgence.
