Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Os utilizadores do Claude Code atingem os limites de utilização 'bem mais rápido do que o esperado'
Os utilizadores do Claude Code que atingem limites de utilização “muito mais depressa do que o esperado”
Há 1 hora
PartilharGuardar
Adicionar como preferido no Google
Richard MorrisRepórter de tecnologia
A Anthropic afirma que está a tentar resolver um problema que está a bloquear os utilizadores da sua ferramenta de codificação com IA.
O Claude Code, o assistente alimentado por IA para escrever código de computador, tornou-se popular nos últimos meses.
A empresa anunciou no Reddit que estava a investigar um problema em que os limites de utilização estavam a ser atingidos mais rapidamente do que o esperado.
Os clientes compram tokens para usar serviços de IA — mas a quantidade de tokens necessária para cada tarefa às vezes é pouco clara.
A Anthropic afirmou que corrigir isto era a “máxima prioridade” para a equipa.
Os utilizadores do Claude comentaram na publicação do Reddit, com um utilizador a dizer que atingiram o limite de tokens “muito mais tarde” na sua conta gratuita em comparação com a sua conta paga de 100 dólares (£75) por mês.
Outro utilizador, ao falar sobre bugs que podem surgir no código criado, comentou “Uma sessão num ciclo pode esgotar o teu orçamento diário em minutos”.
E outro comentário afirmou que o impacto não se limitava ao Claude Code, dizendo “Uma resposta simples de uma frase numa conversa acabou por me levar de 59% de utilização para 100%. Como??”
Na semana passada, a Anthropic introduziu uma limitação de tráfego nos horários de pico dos seus serviços no Claude, o que significa que os tokens serão consumidos mais rapidamente quando a procura pelo serviço for maior.
Os programadores podem usar o Claude Code e outras aplicações semelhantes como parte do seu fluxo de trabalho diário para ajudar em tarefas específicas. Qualquer problema com o serviço pode interromper o seu trabalho.
Uma assinatura do Claude Pro custa aos utilizadores 20 dólares por mês. Os níveis superiores para maior uso podem custar 100 ou até 200 dólares por mês. A empresa também oferece preços empresariais para organizações maiores.
Recentemente, a Anthropic lançou acidentalmente parte do seu código-fonte interno do Claude Code devido a um “erro humano”.
Um ficheiro interno com 500.000 linhas de código foi divulgado no GitHub, uma plataforma popular para desenvolvedores.
Um porta-voz da Anthropic afirmou que a divulgação foi causada por “erro humano, não por uma violação de segurança”, e que “nenhum dado sensível de clientes ou credenciais foi exposto ou envolvido”.
O código-fonte do Claude Code já era parcialmente conhecido, pois tinha sido previamente revertido por desenvolvedores independentes. Uma versão anterior do código-fonte também tinha sido vazada em fevereiro de 2025.
A Anthropic encontra-se atualmente numa batalha legal com o governo dos EUA sobre como as suas ferramentas podem ser usadas pelo Departamento de Defesa.
A firma de IA Anthropic procura um especialista em armas para impedir que os utilizadores “abusem”
Juiz rejeita tentativa do Pentágono de “paralisar” a Anthropic
Sistema de IA recorre a chantagem se ameaçado de ser removido
Subscreva a nossa newsletter Tech Decoded para acompanhar as principais notícias e tendências tecnológicas do mundo. Fora do Reino Unido? Subscreva aqui.
Inteligência artificial
Programação de computadores