Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les chercheurs de l'UC avertissent que les routeurs d'IA tiers volent des cryptomonnaies et des clés privées
Les services de routage AI tiers exposent les utilisateurs à des failles de sécurité importantes pouvant entraîner le vol de cryptomonnaies et d’identifiants cloud.
Résumé
Selon un article publié jeudi par des chercheurs de l’Université de Californie, la chaîne d’approvisionnement pour les grands modèles de langage (LLM) comporte plusieurs vulnérabilités permettant l’injection de code malveillant et l’extraction d’identifiants
Ces intermédiaires, que les développeurs utilisent pour gérer l’accès à des fournisseurs comme Google ou OpenAI, agissent essentiellement comme un « intermédiaire » qui termine le chiffrement sécurisé
Parce qu’ils ont un accès en texte clair à chaque message qui leur est envoyé, des données sensibles comme des phrases de récupération ou des clés privées peuvent être interceptées par une infrastructure non vérifiée.
Tactiques d’évasion et le risque « YOLO »
Les chercheurs ont testé 400 routeurs gratuits et 28 payants pour mesurer l’étendue de ces risques. Neuf de ces services injectaient activement du code malveillant, tandis que 17 autres routeurs ont été surpris en train d’accéder aux identifiants Amazon Web Services possédés par l’équipe
Pendant l’expérience, un routeur a réussi à siphonner de l’éther d’un portefeuille leurre après que les chercheurs aient fourni une clé privée préfinancée
Bien que l’équipe ait maintenu les soldes faibles pour que la perte totale reste inférieure à 50 $, le résultat a confirmé à quel point un intermédiaire compromis peut facilement siphonner des fonds.
« 26 routeurs LLM injectent secrètement des appels d’outils malveillants et volent des identifiants », a déclaré le co-auteur Chaofan Shou sur X.
Identifier un routeur malveillant est une tâche difficile pour l’utilisateur moyen. Les chercheurs ont noté que, parce que ces services doivent lire les données pour les transmettre, il n’y a aucune différence visible entre une gestion légitime et un vol actif
Le danger augmente lorsque les développeurs activent le « mode YOLO », un paramètre dans de nombreux frameworks AI qui permet à un agent d’exécuter des commandes automatiquement sans confirmation humaine
Cela permet à un attaquant d’envoyer des instructions que le système de l’utilisateur exécutera instantanément, souvent à l’insu de l’opérateur.
« La frontière entre ‘gestion des identifiants’ et ‘vol d’identifiants’ est invisible pour le client parce que les routeurs lisent déjà les secrets en texte clair dans le cadre d’un transfert normal », expliquait l’étude.
Les routeurs auparavant fiables peuvent devenir dangereux s’ils réutilisent des identifiants divulgués via des relais faibles. Pour prévenir ces attaques, l’équipe de recherche a suggéré que les développeurs ne devraient jamais laisser passer des clés privées ou des phrases sensibles par une session d’agent AI
Une solution permanente nécessiterait que les entreprises d’IA utilisent des signatures cryptographiques. Un tel système permettrait à un agent de prouver mathématiquement que les instructions proviennent du modèle réel plutôt que d’une source tierce falsifiée.
« Les routeurs API LLM se trouvent sur une frontière de confiance critique que l’écosystème traite actuellement comme un transport transparent », a conclu le document.