Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Claude Code v2.1.89 corrigiu a falha de cache em sessões longas, respondendo às questões de consumo anormal de recursos.
De acordo com o monitorização da 1M AI News, a Anthropic lançou o Claude Code v2.1.89 (o pacote npm já está instalável, mas a página do GitHub release ainda não foi atualizada). Esta versão corrigiu vários problemas de cache que podiam levar a custos de API anómalos e uma série de bugs de estabilidade. Anteriormente, a engenheira da Anthropic Lydia Hallie confirmou que a velocidade com que os utilizadores atingem os limites de consumo era «muito mais rápida do que o esperado»; a comunidade também reportou dois bugs de cache que conseguem elevar os custos da API em 10-20 vezes.
Nesta atualização, os problemas de cache corrigidos incluem: em conversas longas, bytes do schema das ferramentas mudam a meio da sessão, fazendo com que a prompt cache fique inválida, e ficheiros aninhados CLAUDE.md serem injetados repetidamente dezenas de vezes durante conversas longas. Estes dois problemas fazem com que o consumo de tokens em conversas longas exceda largamente o esperado. Além disso, foi corrigido um bug na cache do StructuredOutput schema (anteriormente levando a cerca de 50% de falhas de workflows) e uma fuga de memória causada pela retenção das chaves de cache do LRU ao lidar com entradas JSON grandes.
Outras alterações que valem a pena destacar: