Des hackers criminels ont utilisé l'IA pour rédiger des exploits zero-day fonctionnels

Le groupe d’intelligence contre les menaces de Google a déclaré dimanche avoir détecté ce qu’il croit être la première exploitation de zero-day construite avec l’aide d’un modèle d’IA.

Un groupe de hackers criminels l’a écrit sous forme de script Python pour contourner l’authentification à deux facteurs (2FA) dans un outil d’administration web open-source, selon un rapport publié par Google sur son blog Cloud. La société a collaboré avec le fournisseur pour arrêter l’exploitation massive avant qu’elle ne commence.

Google a relié l’exploitation à l’IA par des motifs dans le code

Google n’a pas blâmé son propre modèle Gemini. Les analystes ont pointé des motifs structurels dans le code qui suggèrent fortement une implication de l’IA.

« Sur la base de la structure et du contenu de ces exploits, nous avons une forte confiance que l’acteur a probablement utilisé un modèle d’IA pour soutenir la découverte et la mise en œuvre de cette vulnérabilité », a écrit Google.

Le script Python comportait des chaînes de documentation éducatives exceptionnellement détaillées, un score de gravité CVSS halluciné, et une mise en forme typique de la sortie d’un grand modèle de langage.

Cela inclut des menus d’aide structurés et une classe de couleurs propre, écrite dans un style didactique.

Google n’a pas nommé le groupe de hackers ni l’outil spécifique ciblé.

Des hackers soutenus par l’État utilisent des modèles d’IA pour la recherche de vulnérabilités

Le rapport de Google va au-delà du seul cas de zero-day.

Des hackers liés à la Chine et à la Corée du Nord ont montré un vif intérêt pour l’utilisation de l’IA afin de trouver et exploiter des failles logicielles, selon le groupe d’intelligence contre les menaces de Google.

Un groupe de menaces chinois connu sous le nom d’UNC2814 attaque des cibles dans les télécommunications et le gouvernement. Le groupe a utilisé une technique que Google appelle le jailbreak basé sur la persona.

Le groupe a demandé à un modèle d’IA de se comporter comme un auditeur de sécurité senior, puis l’a dirigé pour analyser le firmware de dispositifs embarqués de TP-Link et les implémentations du protocole de transfert de fichiers Odette pour des vulnérabilités d’exécution de code à distance.

Un autre groupe, lié à la Chine, a utilisé des outils appelés Strix et Hexstrike pour attaquer une entreprise technologique japonaise et une grande société de cybersécurité en Asie de l’Est.

Les hackers exploitent l’IA pour trouver et exploiter rapidement des vulnérabilités zero-day. Source : Blog Cloud de Google.

Le groupe nord-coréen APT45 a adopté une approche différente. Il a envoyé des milliers d’invites répétitives pour analyser récursivement les entrées CVE connues et valider des exploits de preuve de concept.

Google a indiqué que cette méthode a permis de produire « un arsenal d’exploits plus robuste, qu’il serait impraticable de gérer sans l’aide de l’IA ».

L’IA permet de nouvelles formes de logiciels malveillants et d’évasion

Le rapport de Google couvre d’autres menaces liées à l’IA au-delà de la recherche de vulnérabilités.

Des hackers russes présumés ont utilisé l’IA pour coder et construire des logiciels malveillants polymorphes et des réseaux d’obfuscation. Ces malwares accélèrent les cycles de développement et aident à échapper à la détection.

Google a également mis en garde contre un type de logiciel malveillant qu’il appelle PROMPTSPY, qu’il décrit comme une évolution vers des opérations d’attaque autonomes. Le malware utilise des modèles d’IA pour interpréter l’état du système et générer dynamiquement des commandes pour manipuler l’environnement de la victime. Les attaquants peuvent déléguer les décisions opérationnelles au modèle lui-même.

Les acteurs de la menace obtiennent désormais un accès premium anonymisé aux modèles linguistiques via des middleware spécialisés et des systèmes d’enregistrement automatisés de comptes. Ces services permettent aux hackers de contourner en masse les restrictions d’utilisation en utilisant des comptes d’essai pour financer leurs activités.

Un groupe que Google suit sous le nom de TeamPCP, aussi connu sous le nom d’UNC6780, a commencé à cibler les dépendances logicielles d’IA comme point d’entrée dans des réseaux plus larges. Ils utilisent des outils d’IA compromis comme point d’appui pour le déploiement de ransomware et l’extorsion.

Google a indiqué qu’il utilise ses propres outils d’IA à des fins défensives. La société a mentionné Big Sleep, un agent d’IA qui identifie les vulnérabilités logicielles, et CodeMender, qui utilise le raisonnement de Gemini pour corriger automatiquement les failles.

Google a également déclaré qu’il désactive les comptes pris en flagrant délit d’abus de Gemini à des fins malveillantes.

Ne vous contentez pas de lire l’actualité crypto. Comprenez-la. Abonnez-vous à notre newsletter. C’est gratuit.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler