Pourquoi la sécurité de l’IA est au centre de la Journée de l’Internet plus sûr 2026
Alors que le monde célèbre la Journée de l’Internet plus sûr (10 février), l’IA occupe sans surprise le devant de la scène.
Thème 2026
Au Royaume-Uni, le Centre de l’Internet plus sûr a choisi le thème « Technologie intelligente, choix sûrs » – Explorer l’utilisation sûre et responsable de l’IA pour 2026. Cette emphase reflète la préoccupation croissante concernant la manière dont les systèmes d’IA sont déployés, sécurisés et détournés à travers les plateformes numériques.
Tendances aux États-Unis
Aux États-Unis, ConnectSafely met en avant l’IA générative, l’alphabétisation médiatique avec un esprit critique et la civilité en ligne, en alignement avec son thème mondial, « Ensemble pour un meilleur Internet ».
Réglementation de l’IA et dommages en ligne
Au Royaume-Uni, de nouvelles législations ont commencé à traiter certains des risques de sécurité les plus visibles liés à l’IA. Depuis le 6 février, il est devenu illégal de demander ou de créer des deepfakes générés par IA sans le consentement d’une personne.
Aux États-Unis, la politique fédérale met l’accent sur l’innovation et l’avantage stratégique, les préoccupations de sécurité étant souvent équilibrées avec les priorités économiques. La loi « Take It Down », adoptée en mai 2025, est devenue la première loi nationale à cibler directement la publication de deepfakes générés par IA et d’autres images intimes non consensuelles.
De plus, 46 États ont criminalisé la création et la distribution de tels matériels avec intention. Pour les organisations opérant à l’international, cet environnement juridique fragmenté complique la conformité, en particulier en ce qui concerne l’abus d’identité, la fraude par usurpation d’identité et les médias synthétiques.
L’IA comme amplificateur de menaces
Selon le BCG’s AI Radar 2026, 65 % des chefs d’entreprise classent l’accélération de l’adoption de l’IA parmi leurs trois principales priorités pour 2026. Cependant, cette adoption rapide a créé de nouvelles vulnérabilités en matière de sécurité. En réponse, 38 États américains ont adopté ou promulgué près de 100 mesures liées à l’IA.
Une des plus récentes, adoptée au Texas et entrée en vigueur en janvier, réglemente certains usages commerciaux des systèmes d’IA, reflétant une surveillance accrue sur la gestion des données, la prise de décisions automatisée et les risques liés à l’IA.
Matt Cooke, stratège en cybersécurité EMEA chez Proofpoint, décrit la tension entre innovation et exposition. Il déclare : « Bien que l’IA générative ouvre des opportunités passionnantes, elle présente également de nouveaux dangers, y compris les deepfakes, la désinformation et les vulnérabilités en matière de confidentialité des données. »
« C’est pourquoi une approche centrée sur l’humain en matière de sécurité en ligne est si importante – car votre vie en ligne est votre vraie vie. Les écrans ne font pas disparaître les choses, les captures d’écran sont éternelles et Internet se souvient. »
Préoccupations croissantes
Kamran Ikram, responsable de la cybersécurité chez Accenture au Royaume-Uni et en Irlande, ajoute une autre couche de préoccupation : « La Journée de l’Internet plus sûr est un rappel opportun que le risque cybernétique aujourd’hui concerne moins le piratage des systèmes et plus l’exploitation du comportement humain. »
« La menace croissante provient aujourd’hui de l’ingénierie sociale alimentée par l’IA, où les attaquants ciblent la confiance plutôt que les défauts techniques. »
Des chercheurs d’Accenture révèlent qu’une main-d’œuvre se sent confiante en matière de cybersécurité tout en étant sous-formée. « Quatre employés sur cinq croient qu’ils pourraient repérer une tentative de phishing ou une cyberattaque alimentée par l’IA au travail, mais plus d’un tiers des travailleurs britanniques n’ont jamais reçu de formation en cybersécurité. »
Construire la sécurité dans les systèmes d’IA
En plus de la législation, le Centre de l’Internet plus sûr au Royaume-Uni et ConnectSafely aux États-Unis ont publié des conseils pour réduire les risques pour les utilisateurs, les parents et les professionnels travaillant avec des groupes vulnérables.
Ces ressources soulignent de plus en plus la conception des systèmes, la confiance et la vérification plutôt que la surveillance constante. Paul Holt, vice-président du groupe EMEA chez Digicert, considère la sécurité en ligne comme un problème de sécurité structurelle.
« En tant que parent, j’ai appris que la sécurité dans le monde moderne n’est plus une question de tout surveiller. Il s’agit de mettre en place les bons systèmes lorsque la surveillance n’est plus possible. »
« La Journée de l’Internet plus sûr est un rappel qu’au sein d’un Internet piloté par des machines, la confiance doit être prouvée, chaque fois, sinon elle échouera à grande échelle. »
Au Royaume-Uni, la réglementation de l’IA reste largement sectorielle. Bien qu’un projet de loi sur l’IA annoncé dans le discours du roi en juillet 2025 devrait réglementer uniquement les modèles les plus puissants, un cadre plus large n’est pas attendu avant mai 2026.
Pour les responsables de la cybersécurité, la leçon est claire. À mesure que l’IA s’intègre dans les services numériques, la sécurité, la gouvernance et la vigilance humaine doivent évoluer au même rythme, sinon le risque alimenté par l’IA se développera plus rapidement que les défenses conçues pour le contenir.
