Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Google « première confirmation de l'exploitation de vulnérabilités zero-day générées par l'IA »… développement complet des outils d'attaque lancé
Google Threat Intelligence Group (GTIG) a annoncé avoir détecté le premier cas confirmé d’utilisation de l’intelligence artificielle (IA) pour créer un exploit de « zero-day » réellement opérationnel. Bien que aucune indication de dommages à grande échelle n’ait encore été confirmée, le fait que l’IA ait été officiellement utilisée pour le développement d’outils d’attaque renforce la vigilance dans le secteur de la sécurité.
Selon ce rapport, un groupe de hackers criminels a créé un exploit basé sur Python pour une vulnérabilité de contournement de l’authentification à deux facteurs dans des outils de gestion de systèmes Web open source largement utilisés. Les analyses montrent qu’ils ont tenté de l’utiliser dans une attaque à grande échelle, mais en raison d’erreurs lors de la mise en œuvre, l’exploitation réelle n’a pas été fluide. Google a informé le fournisseur concerné de la vulnérabilité, et un correctif a été publié.
GTIG explique que de nombreux indices visibles dans le code indiquent une intervention évidente de l’IA. Par exemple, une évaluation de gravité incohérente, une syntaxe Python excessivement « manuelle », un menu d’aide détaillé, ainsi que des chaînes de documentation explicatives marquées par des traces de données d’entraînement. Cependant, Google précise que son propre modèle Gemini n’a pas été utilisé dans cette opération.
Cibler des « défauts logiques sémantiques » difficiles à détecter par les outils de sécurité traditionnels
Cette vulnérabilité découle d’un « défaut logique sémantique » plus complexe qu’une simple erreur de codage. Les développeurs ont ancré dans leur code des hypothèses de confiance envers certains objets, ce qui constitue une faille de conception de haut niveau. Ces vulnérabilités sont difficiles à détecter pour les scanners de sécurité classiques, qui peuvent les considérer comme « fonctionnant normalement ».
En revanche, GTIG explique que les modèles de langage de grande taille (LLM) récents montrent une supériorité dans l’inférence des intentions des développeurs et dans la détection de défauts cachés dans des logiques apparemment correctes. Cela signifie que l’IA a dépassé le simple automatisme pour entrer dans une nouvelle phase capable de comprendre le contexte d’une revue de sécurité.
John Hultquist, analyste principal chez GTIG, déclare : « Penser que la compétition autour des vulnérabilités basées sur l’IA va bientôt commencer est une erreur. La réalité, c’est qu’elle a déjà commencé. Si un zero-day lié à l’IA est confirmé, il y en a probablement beaucoup d’autres non détectés. » Il diagnostique que les acteurs malveillants utilisent l’IA pour accélérer, élargir et rendre leurs attaques plus sophistiquées.
La Chine, la Corée du Nord et la Russie exploitent l’IA tout au long du processus d’attaque
GTIG considère que ce cas n’est pas isolé, mais s’inscrit dans une tendance plus large. Le rapport indique que des groupes de hackers soutenus par des États liés à la Chine, à la Corée du Nord et à la Russie utilisent l’IA à chaque étape de leurs attaques, de la reconnaissance à l’analyse de vulnérabilités, en passant par le développement de logiciels malveillants et les opérations d’influence. Ces groupes adoptent également cette approche pour produire plus rapidement des logiciels malveillants et mener des opérations à plus grande échelle.
Une technique utilisée par le groupe de menaces associé à la Corée du Nord, « APT45 », consiste à envoyer des milliers de prompts répétés pour analyser récursivement la vulnérabilité et valider des preuves de concept (PoC), ce qui est interprété comme une tentative de construire un actif d’attaque difficile à gérer sans assistance IA.
Il est également rapporté que le groupe « UNC2814 », probablement lié à la Chine, utilise une technique appelée « jailbreak » (évasion de sécurité), en jouant un rôle d’expert pour induire en erreur Gemini afin d’enquêter sur des vulnérabilités de dépassement de la pré-authentification dans le firmware des routeurs TP-Link et dans le protocole de transfert de fichiers Odette, aboutissant à une exécution de code à distance (RCE).
Un autre acteur chinois aurait également exploité les frameworks « Hexstrike » et « Strix », ainsi qu’un système mémoire nommé « Graphiti », pour explorer de manière autonome une entreprise technologique japonaise et une plateforme de cybersécurité en Asie de l’Est. Le rapport indique qu’ils changent d’outils de reconnaissance en fonction de leur raisonnement interne, minimisant l’intervention humaine.
Propagation vers les portes dérobées Android, le code falsifié et la clonage vocal
Le rapport mentionne également un porte dérobée Android nommé « PROMPTSPY ». Ce malware utilise l’API Gemini pour interpréter les éléments de l’interface utilisateur à l’écran du smartphone et générer automatiquement des coordonnées tactiles, illustrant l’intégration de l’IA dans l’automatisation des attaques mobiles.
Les analyses montrent que des séries de logiciels malveillants liés à la Russie, « CANFAIL » et « LONGSTREAM », dissimulent leurs véritables fonctionnalités malveillantes en insérant du code généré par l’IA. De plus, il a été découvert que des acteurs russes ont utilisé la clonage vocal basé sur l’IA pour créer de fausses vidéos de journalistes, dans le cadre de leur opération d’influence « Overload », visant l’Ukraine, la France et les États-Unis.
Par ailleurs, le groupe criminel « TeamPCP » est soupçonné d’être à l’origine de l’intrusion en mars dernier dans le logiciel de passerelle IA populaire « LiteLLM ». L’enquête révèle qu’ils ont implanté des outils de vol de crédentiels via des paquets contaminés sur PyPI et des demandes de tirage (Pull Requests) malveillantes, volant des clés AWS et des tokens GitHub, puis monétisant le tout via des rançongiciels.
Google : « comptes malveillants bloqués, outils de défense IA renforcés »
En réponse, Google indique qu’il bloquera les comptes malveillants abusant de Gemini et renforcera l’utilisation d’outils de défense basés sur l’IA, tels que le détecteur de vulnérabilités « Big Sleep » et l’outil de correction « CodeMender ».
Le cœur de ce rapport est que l’IA n’est plus un simple outil d’assistance en laboratoire. Elle est désormais impliquée dans la création d’exploits zero-day, la dissimulation de codes malveillants, l’automatisation des portes dérobées mobiles, et la diffusion de fausses informations. Certains analystes pensent que la compétition en sécurité évolue désormais de « qui détecte et réagit le plus vite » à « qui contrôle et exploite le mieux l’IA ».
Notes sur l’IA de TP : Cet article a été résumé à l’aide du modèle linguistique TokenPost.ai. Ce résumé pourrait omettre des contenus importants ou être inexact par rapport à l’original.