Les entreprises déployant l’IA sans comprendre les risques et les impacts juridiques – enquête
Selon une enquête mondiale de Womble Bond Dickinson réalisée en 2026, les entreprises avancent dans la mise en œuvre de l’intelligence artificielle (IA) sans avoir pleinement compris les risques opérationnels et les implications juridiques et commerciales à long terme.
Priorités des entreprises face à l’IA
L’enquête révèle que les clients se concentrent de plus en plus sur la gouvernance de l’IA et les menaces de cybersécurité liées à l’IA, avec des préoccupations concernant les impacts réels tels que l’exposition juridique due à un déploiement rapide de l’IA, les problèmes environnementaux liés aux centres de données et l’impact de la délégation de décisions critiques à des systèmes automatisés. Le cadre réglementaire fragmenté ajoute également à ces inquiétudes.
Réactions des entreprises face aux défis
Cependant, malgré cette complexité croissante, 42% des répondants ont déclaré que leurs plans en matière d’IA n’avaient pas changé, tandis que 33% étaient incertains quant à l’impact de la politique fédérale sur leurs activités. Parmi ceux qui avancent, 40% s’inquiètent d’un manque de clarté réglementaire, et 31% se plaignent de l’absence d’un cadre fédéral cohérent pour l’IA.
WBD a souligné : “L’enquête montre clairement que les organisations opèrent dans un monde où la mise en œuvre dépasse la compréhension. Les dirigeants restent engagés envers les technologies émergentes – en particulier l’IA – mais avec une prise de conscience croissante que le succès dans l’« Économie des Algorithmes » nécessite plus que la rapidité. Cela exige une prise de décision disciplinée, une gouvernance et une gestion des risques mises en place rapidement pour suivre des technologies promettant une valeur significative mais qui ne sont pas encore totalement comprises.”
Préoccupations réglementaires et de conformité
Les organisations s’inquiètent des risques réglementaires et de conformité liés aux technologies, avec 52% très préoccupés par l’utilisation de systèmes d’IA justes et impartiaux, 48% préparant des violations de données et des incidents de cybersécurité, et 47% intégrant des mesures de protection de la vie privée dans leurs produits numériques. De plus, 43% ont classé la construction et le maintien d’une gouvernance interne de l’IA comme “très préoccupant”, tandis que 41% craignent de suivre les changements réglementaires transjuridictionnels.
Recherche de conseils
WBD a indiqué que les deux domaines principaux où les clients cherchent des conseils sont l’équilibre entre la mise en œuvre de la technologie et la conformité (57%) et l’évaluation des risques par rapport aux récompenses (54%).
Risques technologiques et préoccupations juridiques
Les clients ont signalé que les risques liés à la technologie se traduisent directement par des préoccupations en matière d’application et de litiges, 77% étant inquiets de défendre contre les réclamations liées aux violations de données et à la vie privée, et 73% concernés par la réponse aux enquêtes sur l’IA et la cybersécurité. De plus, 72% s’inquiètent de la navigation dans les audits de conformité numérique et de l’application, tandis que 60% craignent la responsabilité liée à l’IA et les actions collectives.
Confiance des répondants
Bien que seulement 3% des répondants aient déclaré ne pas avoir confiance en leur capacité à gérer l’évolution de l’application de l’IA, 48% ont déclaré être incertains ou neutres. Près de la moitié (49%) se disent confiants.
