Les hackers étatiques exploitent l’IA de Google pour des attaques ciblées

Les hackers sponsorisés par l’État utilisent l’IA de Google comme assistant d’attaque

Les hackers sponsorisés par l’État exploitent systématiquement le modèle d’IA Gemini de Google à chaque phase des cyberattaques, de la reconnaissance initiale aux opérations post-compromission, selon une nouvelle évaluation du Groupe d’Intelligence de Menace de Google (GTIG).

Une évolution alarmante

Le rapport révèle que des groupes de menaces persistantes avancées (APT) en provenance de Chine, Iran, Corée du Nord et Russie utilisent ce modèle de langage pour améliorer leurs capacités offensives. Les cybercriminels intègrent également de plus en plus d’outils d’IA dans leurs opérations malveillantes.

Ces découvertes marquent une évolution significative dans la manière dont les adversaires sophistiqués utilisent des systèmes d’IA accessibles au public. Au lieu de développer des outils propriétaires de toutes pièces, ces groupes externalisent efficacement des portions de leur développement d’attaques vers des plateformes d’IA commerciales, accélérant leurs opérations tout en réduisant les coûts et les barrières techniques.

Comment les acteurs de menace arment l’IA Gemini

Bien que le GTIG ait noté qu’aucun acteur APT ou opérationnel d’information n’ait atteint des capacités révolutionnaires altérant fondamentalement le paysage des menaces, ces développements représentent une tendance préoccupante.

Dans une découverte particulièrement alarmante, les acteurs de menace ont déployé plus de 100 000 invites contre Gemini dans des tentatives d’extraction de modèle à grande échelle visant à reproduire ses capacités de raisonnement dans plusieurs langues.

Une enquête de Google a révélé que des acteurs chinois, y compris APT31 et Temp.HEX, ont utilisé des personas d’experts en cybersécurité pour diriger Gemini dans l’automatisation de l’analyse des vulnérabilités et la génération de plans de test ciblés dans des scénarios fabriqués.

Exemples de déploiement

Dans un cas documenté, un acteur basé en Chine a testé l’outil Hexstrike MCP tout en dirigeant le modèle pour analyser des techniques d’Exécution de Code à Distance (RCE), des méthodes de contournement de pare-feu d’application web (WAF) et des résultats de tests d’injection SQL contre des cibles spécifiques basées aux États-Unis.

Un autre groupe de menaces chinois a fréquemment exploité Gemini pour le débogage de code, la recherche technique et des conseils sur les capacités d’intrusion.

L’adversaire iranien APT42 a déployé le modèle linguistique de Google pour améliorer les campagnes d’ingénierie sociale et accélérer le développement d’outils malveillants personnalisés via le débogage, la génération de code et la recherche de techniques d’exploitation.

Intégration par des cybercriminels

Les acteurs nord-coréens et russes ont également intégré Gemini dans leurs flux de travail opérationnels pour des tâches allant du profilage des cibles à la collecte d’informations en source ouverte, en passant par la création de leurres de phishing, l’assistance à la programmation et les tests de vulnérabilité.

Au-delà des groupes sponsorisés par l’État, les cybercriminels montrent également une sophistication croissante dans l’intégration de l’IA. Deux familles de malwares illustrent cette tendance : HonestCue, un cadre de preuve de concept découvert fin 2025, utilise l’API de Gemini pour générer dynamiquement du code C# pour des charges utiles de malware de deuxième étape, qui sont ensuite compilées et exécutées en mémoire.

CoinBait, une application à page unique React déguisée en échange de cryptomonnaie, contient des artefacts indiquant que son développement a été accéléré à l’aide d’outils de génération de code IA.

Réponse de Google et mesures défensives

Google a réagi aux menaces identifiées en désactivant les comptes et infrastructures associés à des activités malveillantes documentées. L’entreprise a amélioré ses classificateurs et ses modèles sous-jacents, leur permettant de refuser l’assistance avec des schémas d’attaque similaires à l’avenir. Ces défenses ciblées visent à prévenir les abus tout en maintenant des cas d’utilisation légitimes pour la plateforme.

« Nous nous engageons à développer l’IA de manière audacieuse et responsable, ce qui signifie prendre des mesures proactives pour perturber les activités malveillantes en désactivant des projets et des comptes associés à des acteurs malveillants, tout en améliorant continuellement nos modèles pour les rendre moins susceptibles d’être abusés », a déclaré le rapport.

Les activités observées représentent une évolution des techniques existantes plutôt qu’un changement révolutionnaire des capacités des adversaires. Cependant, Google s’attend à ce que les opérateurs de malware continuent d’intégrer l’IA dans leurs ensembles d’outils à mesure que ces technologies deviennent plus accessibles et sophistiquées.

Vers un avenir sécurisé

La militarisation des plateformes d’IA commerciales comme Gemini souligne la nature à double usage des modèles de langage avancés et le défi continu de trouver un équilibre entre innovation et sécurité. Alors que les acteurs de menace démontrent une sophistication accrue dans l’exploitation de ces outils, l’industrie de la cybersécurité fait face à un point d’inflexion critique dans la manière dont les systèmes d’IA sont conçus, déployés et défendus.

Des opérations d’espionnage sponsorisées par l’État aux cybercrimes motivés par des intérêts financiers, les adversaires intègrent systématiquement des capacités d’IA pour réduire les coûts de développement, accélérer les opérations et abaisser les barrières techniques à l’entrée.

Désormais, les adversaires peuvent déléguer des tâches complexes – de la recherche de vulnérabilités à la génération de charges utiles – à un assistant IA grand public conçu pour les utilisateurs quotidiens. Ce n’est pas seulement une question de hackers découvrant une vulnérabilité obscure ; il s’agit d’acteurs étatiques et de cybercriminels intégrant systématiquement un outil d’IA public dans chaque phase de leurs opérations, transformant ce qui était autrefois un processus laborieux en un flux de travail assisté par IA, rendant ainsi le paysage cybernétique futur beaucoup plus périlleux.

Scroll to Top