Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Une étude de DeepMind révèle six façons dont les hackers peuvent manipuler des agents d'IA
TLDR
Des chercheurs de Google DeepMind ont identifié six méthodes d’attaque permettant de manipuler des agents IA en ligne. L’étude montre comment des agents IA peuvent être influencés via du contenu web, des instructions cachées et des sources de données empoisonnées. En conséquence, les résultats mettent en avant des risques grandissants alors que les entreprises déploient des agents IA pour des tâches réelles dans des environnements numériques.
Manipulation du contenu et sémantique : mise en évidence des faiblesses fondamentales
Les chercheurs ont identifié des pièges d’injection de contenu comme une menace directe pour les agents IA lors d’interactions web. Des instructions cachées placées dans du HTML ou des métadonnées peuvent contrôler les actions sans détection humaine. En conséquence, les agents IA peuvent exécuter des commandes intégrées dans des éléments de page invisibles.
La manipulation sémantique s’appuie sur un langage persuasif plutôt que sur du code caché pour influencer les agents IA. Les attaquants conçoivent des pages avec un ton autoritaire et des récits structurés pour contourner les garde-fous. Les agents IA peuvent interpréter des instructions nuisibles comme des tâches valides.
Ces méthodes exploitent la manière dont les agents IA traitent et priorisent l’information en ligne pendant la prise de décision. L’étude montre que des invites structurées peuvent remodeler les trajectoires de raisonnement de façon subtile. Les attaquants peuvent guider les agents IA vers des actions non prévues sans déclencher les défenses du système.
Attaques sur la mémoire et le comportement : expansion de la surface de risque
Les chercheurs ont également constaté que les attaquants peuvent manipuler les systèmes de mémoire utilisés par les agents IA pour la recherche d’informations. En injectant de fausses données dans des sources de confiance, les attaquants influencent les sorties et réponses à long terme. En conséquence, les agents IA peuvent traiter des informations fabriquées comme un savoir vérifié au fil du temps.
Les attaques de contrôle comportemental ciblent directement les actions effectuées par les agents IA pendant la navigation de routine. Des instructions de jailbreak intégrées peuvent remplacer les restrictions et déclencher des opérations non voulues. Les agents IA dotés de permissions étendues peuvent accéder et transmettre des données sensibles à l’extérieur.
L’étude souligne que ces risques augmentent à mesure que les agents IA gagnent en autonomie et en accès système. Les attaquants peuvent exploiter les flux de travail de routine pour insérer des commandes malveillantes dans des tâches normales. Les agents IA sont davantage exposés lorsqu’ils sont intégrés à des outils externes et à des API.
Les pièges systémiques et les facteurs humains amplifient l’impact de la menace
Les chercheurs avertissent que des pièges systémiques peuvent toucher simultanément plusieurs agents IA sur des systèmes interconnectés. Une manipulation coordonnée peut déclencher des défaillances en cascade similaires à des perturbations de marché pilotées par des algorithmes. En conséquence, les agents IA opérant dans des environnements partagés peuvent amplifier les risques à grande échelle.
Les évaluateurs humains restent vulnérables dans le flux de travail des agents IA et les processus d’approbation. Les attaquants peuvent produire des sorties qui semblent crédibles et contourner les contrôles de surveillance. Les agents IA peuvent exécuter des actions nuisibles après avoir reçu l’approbation humaine.
L’étude inscrit ces résultats dans un contexte plus large de déploiement croissant des IA dans divers secteurs. Les agents IA gèrent désormais des tâches telles que la communication, les achats et la coordination via des systèmes automatisés. Sécuriser l’environnement d’exploitation devient aussi crucial que d’améliorer la conception du modèle.
Les chercheurs recommandent l’entraînement adversarial, le filtrage des entrées et des systèmes de surveillance pour réduire l’exposition. L’étude note que les défenses restent fragmentées et manquent de normes à l’échelle de l’industrie. À mesure que les agents IA continuent d’étendre leur rôle, le besoin de garde-fous coordonnés devient plus urgent.