Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Os utilizadores do Claude Code atingem os limites de utilização 'bem mais rápido do que o esperado'
Utilizadores do Claude Code a esbarrar rapidamente nos limites de utilização ‘muito mais depressa do que o esperado’
Há 2 dias
PartilharGuardar
Adicionar como preferido no Google
Richard MorrisRepórter de tecnologia
A Anthropic diz que está a tentar resolver um problema que está a bloquear os utilizadores da sua ferramenta de codificação de IA.
O Claude Code, o assistente baseado em IA para escrever código de computador, tornou-se popular nos últimos meses.
A empresa anunciou no Reddit que está a investigar um problema em que os limites de utilização estão a ser atingidos mais depressa do que o esperado.
Os clientes compram tokens para usar serviços de IA — mas a quantidade de tokens necessária para cada tarefa é, por vezes, pouco clara.
A Anthropic disse que corrigir isto é a “prioridade máxima” para a equipa.
Utilizadores do Claude comentaram, no post do Reddit, com um utilizador a dizer que atingiu o limite de tokens “muito mais tarde” na sua conta gratuita do que na sua conta paga de $100 (£75) por mês.
Outro utilizador, a falar sobre bugs que podem surgir no código criado, comentou “Uma única sessão num ciclo pode esvaziar o teu orçamento diário em minutos”.
E outro comentário afirmou que o impacto não era apenas no Claude Code, dizendo “Uma resposta simples de uma frase numa conversa fez-me sair de 59% de utilização para 100%. Como é que??”
Ainda na semana passada, a Anthropic introduziu a limitação em horas de ponta nos seus serviços no Claude, o que significa que os tokens serão consumidos mais rapidamente quando a procura pelo serviço é mais alta.
Os programadores de software podem usar o Claude Code e outras aplicações semelhantes como parte do seu fluxo de trabalho diário para ajudar com tarefas específicas. Quaisquer problemas com o serviço podem perturbar o trabalho deles.
Uma subscrição Claude Pro custa aos utilizadores $20 por mês. Aumentar os escalões para uma utilização mais alta pode custar $100 ou mesmo $200 por mês. A empresa também oferece preços para empresas para organizações maiores.
A Anthropic libertou recentemente, por acidente, parte do seu código-fonte interno do Claude Code devido a “erro humano”.
Um ficheiro interno com 500.000 linhas de código foi divulgado no GitHub, uma plataforma popular para programadores.
Um porta-voz da Anthropic disse que o lançamento foi causado por “erro humano, e não uma violação de segurança”, e que “nenhum dado sensível de clientes ou credenciais foi exposto ou esteve envolvido”.
O código-fonte do Claude Code já era parcialmente conhecido, uma vez que tinha sido previamente submetido a engenharia inversa por programadores independentes. Uma versão anterior do código-fonte também foi vazada em fevereiro de 2025.
A Anthropic encontra-se atualmente numa batalha legal com o governo dos EUA sobre a forma como as suas ferramentas podem ser utilizadas pelo Departamento de Defesa.
Empresa de IA Anthropic procura especialista em armas para impedir utilizadores de ‘uso indevido’
Juiz rejeita tentativa do Pentágono de ‘incapacitar’ a Anthropic
Sistema de IA recorre ao chantagem se lhe disserem que vai ser removida
Subscreve a nossa newsletter Tech Decoded para acompanhares as principais histórias e tendências tecnológicas do mundo. Fora do Reino Unido? Inscreve-te aqui.
Inteligência artificial
Programação de computadores