Google « première confirmation de l'exploitation de vulnérabilités zero-day générées par l'IA »… développement complet des outils d'attaque lancé

robot
Création du résumé en cours

Google Threat Intelligence Group (GTIG) a annoncé avoir détecté le premier cas confirmé d’utilisation de l’intelligence artificielle (IA) pour créer un exploit de « zero-day » réellement opérationnel. Bien que aucune indication de dommages à grande échelle n’ait encore été confirmée, le fait que l’IA ait été officiellement utilisée pour le développement d’outils d’attaque renforce la vigilance dans le secteur de la sécurité.

Selon ce rapport, un groupe de hackers criminels a créé un exploit basé sur Python pour une vulnérabilité de contournement de l’authentification à deux facteurs dans des outils de gestion de systèmes Web open source largement utilisés. Les analyses montrent qu’ils ont tenté de l’utiliser dans une attaque à grande échelle, mais en raison d’erreurs lors de la mise en œuvre, l’exploitation réelle n’a pas été fluide. Google a informé le fournisseur concerné de la vulnérabilité, et un correctif a été publié.

GTIG explique que de nombreux indices visibles dans le code indiquent une intervention évidente de l’IA. Par exemple, une évaluation de gravité incohérente, une syntaxe Python excessivement « manuelle », un menu d’aide détaillé, ainsi que des chaînes de documentation explicatives marquées par des traces de données d’entraînement. Cependant, Google précise que son propre modèle Gemini n’a pas été utilisé dans cette opération.

Cibler des « défauts logiques sémantiques » difficiles à détecter par les outils de sécurité traditionnels

Cette vulnérabilité découle d’un « défaut logique sémantique » plus complexe qu’une simple erreur de codage. Les développeurs ont ancré dans leur code des hypothèses de confiance envers certains objets, ce qui constitue une faille de conception de haut niveau. Ces vulnérabilités sont difficiles à détecter pour les scanners de sécurité classiques, qui peuvent les considérer comme « fonctionnant normalement ».

En revanche, GTIG explique que les modèles de langage de grande taille (LLM) récents montrent une supériorité dans l’inférence des intentions des développeurs et dans la détection de défauts cachés dans des logiques apparemment correctes. Cela signifie que l’IA a dépassé le simple automatisme pour entrer dans une nouvelle phase capable de comprendre le contexte d’une revue de sécurité.

John Hultquist, analyste principal chez GTIG, déclare : « Penser que la compétition autour des vulnérabilités basées sur l’IA va bientôt commencer est une erreur. La réalité, c’est qu’elle a déjà commencé. Si un zero-day lié à l’IA est confirmé, il y en a probablement beaucoup d’autres non détectés. » Il diagnostique que les acteurs malveillants utilisent l’IA pour accélérer, élargir et rendre leurs attaques plus sophistiquées.

La Chine, la Corée du Nord et la Russie exploitent l’IA tout au long du processus d’attaque

GTIG considère que ce cas n’est pas isolé, mais s’inscrit dans une tendance plus large. Le rapport indique que des groupes de hackers soutenus par des États liés à la Chine, à la Corée du Nord et à la Russie utilisent l’IA à chaque étape de leurs attaques, de la reconnaissance à l’analyse de vulnérabilités, en passant par le développement de logiciels malveillants et les opérations d’influence. Ces groupes adoptent également cette approche pour produire plus rapidement des logiciels malveillants et mener des opérations à plus grande échelle.

Une technique utilisée par le groupe de menaces associé à la Corée du Nord, « APT45 », consiste à envoyer des milliers de prompts répétés pour analyser récursivement la vulnérabilité et valider des preuves de concept (PoC), ce qui est interprété comme une tentative de construire un actif d’attaque difficile à gérer sans assistance IA.

Il est également rapporté que le groupe « UNC2814 », probablement lié à la Chine, utilise une technique appelée « jailbreak » (évasion de sécurité), en jouant un rôle d’expert pour induire en erreur Gemini afin d’enquêter sur des vulnérabilités de dépassement de la pré-authentification dans le firmware des routeurs TP-Link et dans le protocole de transfert de fichiers Odette, aboutissant à une exécution de code à distance (RCE).

Un autre acteur chinois aurait également exploité les frameworks « Hexstrike » et « Strix », ainsi qu’un système mémoire nommé « Graphiti », pour explorer de manière autonome une entreprise technologique japonaise et une plateforme de cybersécurité en Asie de l’Est. Le rapport indique qu’ils changent d’outils de reconnaissance en fonction de leur raisonnement interne, minimisant l’intervention humaine.

Propagation vers les portes dérobées Android, le code falsifié et la clonage vocal

Le rapport mentionne également un porte dérobée Android nommé « PROMPTSPY ». Ce malware utilise l’API Gemini pour interpréter les éléments de l’interface utilisateur à l’écran du smartphone et générer automatiquement des coordonnées tactiles, illustrant l’intégration de l’IA dans l’automatisation des attaques mobiles.

Les analyses montrent que des séries de logiciels malveillants liés à la Russie, « CANFAIL » et « LONGSTREAM », dissimulent leurs véritables fonctionnalités malveillantes en insérant du code généré par l’IA. De plus, il a été découvert que des acteurs russes ont utilisé la clonage vocal basé sur l’IA pour créer de fausses vidéos de journalistes, dans le cadre de leur opération d’influence « Overload », visant l’Ukraine, la France et les États-Unis.

Par ailleurs, le groupe criminel « TeamPCP » est soupçonné d’être à l’origine de l’intrusion en mars dernier dans le logiciel de passerelle IA populaire « LiteLLM ». L’enquête révèle qu’ils ont implanté des outils de vol de crédentiels via des paquets contaminés sur PyPI et des demandes de tirage (Pull Requests) malveillantes, volant des clés AWS et des tokens GitHub, puis monétisant le tout via des rançongiciels.

Google : « comptes malveillants bloqués, outils de défense IA renforcés »

En réponse, Google indique qu’il bloquera les comptes malveillants abusant de Gemini et renforcera l’utilisation d’outils de défense basés sur l’IA, tels que le détecteur de vulnérabilités « Big Sleep » et l’outil de correction « CodeMender ».

Le cœur de ce rapport est que l’IA n’est plus un simple outil d’assistance en laboratoire. Elle est désormais impliquée dans la création d’exploits zero-day, la dissimulation de codes malveillants, l’automatisation des portes dérobées mobiles, et la diffusion de fausses informations. Certains analystes pensent que la compétition en sécurité évolue désormais de « qui détecte et réagit le plus vite » à « qui contrôle et exploite le mieux l’IA ».

Notes sur l’IA de TP : Cet article a été résumé à l’aide du modèle linguistique TokenPost.ai. Ce résumé pourrait omettre des contenus importants ou être inexact par rapport à l’original.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler