Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Une étude de DeepMind révèle six façons dont les hackers peuvent manipuler des agents d'IA
Résumé
Des chercheurs de Google DeepMind ont identifié six méthodes d’attaque permettant de manipuler des agents IA en ligne. L’étude montre comment des agents IA peuvent être influencés via du contenu web, des instructions cachées et des sources de données empoisonnées. En conséquence, les résultats mettent en évidence des risques croissants alors que des entreprises déploient des agents IA pour des tâches concrètes dans des environnements numériques.
Injection de contenu et manipulation sémantique : faiblesses fondamentales
Les chercheurs ont identifié des pièges d’injection de contenu comme une menace directe pour les agents IA lors d’interactions web. Des instructions cachées placées dans du HTML ou des métadonnées peuvent contrôler des actions sans détection humaine. Ainsi, les agents IA peuvent exécuter des commandes intégrées dans des éléments de page invisibles.
La manipulation sémantique s’appuie sur un langage persuasif plutôt que sur du code caché pour influencer les agents IA. Les attaquants conçoivent des pages au ton autoritaire et avec des récits structurés afin de contourner les garde-fous. Les agents IA peuvent interpréter des instructions nuisibles comme des tâches valides.
Ces méthodes exploitent la manière dont les agents IA traitent et priorisent l’information en ligne pendant la prise de décision. L’étude montre que des invites structurées peuvent remodeler subtilement les trajectoires de raisonnement. Les attaquants peuvent guider les agents IA vers des actions non intentionnelles sans déclencher les défenses du système.
Attaques sur la mémoire et le comportement : élargissement de la surface de risque
Les chercheurs ont également constaté que les attaquants peuvent manipuler les systèmes de mémoire utilisés par les agents IA pour la récupération d’informations. En injectant de fausses données dans des sources de confiance, les attaquants influencent les sorties et réponses à long terme. En conséquence, les agents IA peuvent traiter des informations fabriquées comme un savoir vérifié au fil du temps.
Les attaques de contrôle du comportement ciblent directement les actions réalisées par les agents IA pendant une navigation routinière. Des instructions de contournement intégrées peuvent remplacer les restrictions et déclencher des opérations non intentionnelles. Les agents IA disposant de permissions étendues peuvent accéder et transmettre des données sensibles à l’extérieur.
L’étude souligne que ces risques augmentent à mesure que les agents IA gagnent en autonomie et en accès système. Les attaquants peuvent exploiter des flux de travail courants pour insérer des commandes malveillantes dans des tâches normales. Les agents IA sont davantage exposés lorsqu’ils sont intégrés à des outils et des API externes.
Facteurs systémiques et humains : amplification de l’impact de la menace
Les chercheurs avertissent que des pièges systémiques peuvent affecter simultanément plusieurs agents IA au sein de systèmes interconnectés. Une manipulation coordonnée peut déclencher des défaillances en cascade similaires à des perturbations de marché pilotées par des algorithmes. En conséquence, les agents IA fonctionnant dans des environnements partagés peuvent amplifier les risques à grande échelle.
Les évaluateurs humains restent vulnérables dans le flux de travail des agents IA et dans les processus d’approbation. Les attaquants peuvent produire des sorties qui semblent crédibles et contourner les contrôles de supervision. Les agents IA peuvent exécuter des actions nuisibles après avoir reçu l’approbation humaine.
L’étude inscrit ces résultats dans un contexte plus large de déploiement croissant de l’IA dans l’ensemble des secteurs. Les agents IA gèrent désormais des tâches telles que la communication, l’achat et la coordination via des systèmes automatisés. Sécuriser l’environnement d’exploitation devient aussi crucial que d’améliorer la conception du modèle.
Les chercheurs recommandent l’entraînement adversarial, le filtrage des entrées et des systèmes de surveillance pour réduire l’exposition. L’étude note que les défenses restent fragmentées et dépourvues de normes à l’échelle de l’industrie. À mesure que les agents IA continuent d’étendre leur rôle, le besoin de garde-fous coordonnés devient plus urgent.