Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Une analyse inversée du code Claude a révélé deux bugs de cache, pouvant faire augmenter silencieusement le coût de l'API de 10 à 20 fois
Selon Bijiéwang, d’après la surveillance de 1M AI News, un développeur a procédé au reverse engineering de la version autonome de Claude Code, un fichier binaire de 228 Mo, via Ghidra, un proxy MITM et radare2. Il a découvert deux bugs de cache distincts, capables d’augmenter les coûts API de 10 à 20 fois sans que l’utilisateur en ait connaissance. Une analyse correspondante a été soumise sur GitHub (issue #40524) ; Anthropic l’a qualifiée de bug de régression et l’a prise en charge.
Le premier bug se trouve dans un runtime Bun personnalisé utilisé par la version autonome. À chaque requête API, le runtime recherche dans le corps de la requête un identifiant de facturation et procède à un remplacement ; toutefois, la logique de remplacement correspond au premier élément correspondant présent dans le corps de la requête. Si l’historique de la conversation contient exactement cette chaîne (par exemple, lorsque l’on discute du mécanisme interne de facturation de Claude Code), le remplacement se fait sur le contenu du message plutôt que sur les instructions système, ce qui déclenche à chaque requête une reconstruction complète du cache. La méthode de contournement temporaire consiste à utiliser npx @anthropic-ai/claude-code pour exécuter ; la version du package npm ne contient pas cette logique de remplacement.
Le deuxième bug affecte tous les utilisateurs qui reprennent une session avec --resume ou --continue. Introduit à partir de v2.1.69. Lors de la reprise de session, la position d’injection des informations système diffère de celle d’une session nouvellement créée, ce qui fait que le préfixe du cache ne correspond plus entièrement : tout l’historique de la conversation est alors lu à partir du cache au lieu d’être réécrit intégralement. Les tours suivants reprennent ensuite normalement, mais l’opération de reprise elle-même a déjà généré d’importants coûts supplémentaires ; à ce jour, il n’existe aucune solution de contournement externe.
Le développeur estime qu’avec une longue conversation d’environ 500 000 tokens, le bug 1 consomme environ 0,04 USD de plus à chaque requête, et que le bug 2 consomme environ 0,15 USD de plus à chaque reprise ; ensemble, le coût d’une requête peut dépasser 0,20 USD. Auparavant, l’ingénieur d’Anthropic Lydia Hallie a confirmé que la vitesse de dépassement des limites d’usage par les utilisateurs est « bien plus rapide que prévu ». Dans la section des commentaires sur Reddit, plusieurs utilisateurs pensent que ces deux bugs de cache pourraient être l’une des causes fondamentales d’une consommation anormale de quota.