Os utilizadores do Claude Code atingem os limites de utilização 'bem mais rápido do que o esperado'

Os utilizadores do Claude Code a atingirem limites de utilização ‘muito mais depressa do que o esperado’

Há 1 dia

PartilharGuardar

Adicionar como preferido no Google

Richard MorrisRepórter de tecnologia

Getty Images

A Anthropic diz que está a tentar resolver um problema que está a bloquear os utilizadores da sua ferramenta de IA para programação.

O Claude Code, o assistente de IA para escrever código de computador, tornou-se popular nos últimos meses.

A empresa anunciou no Reddit que está a investigar um problema em que os limites de utilização estão a ser atingidos mais depressa do que o esperado.

Os clientes compram tokens para utilizar serviços de IA — mas a quantidade de tokens necessária para cada tarefa é por vezes pouco clara.

A Anthropic disse que corrigir isto era a “prioridade máxima” para a equipa.

Utilizadores do Claude comentaram a publicação no Reddit, com um utilizador a dizer que atingiu o limite de tokens “muito mais tarde” na sua conta gratuita do que na sua conta paga de $100 (£75) por mês.

Outro utilizador, falando sobre bugs que podem formar-se no código criado, comentou “Uma única sessão num ciclo pode esgotar o seu orçamento diário em minutos”.

E outro comentário afirmou que o impacto não era apenas no Claude Code, dizendo “Uma resposta simples de uma frase a uma conversa levou-me de 59% de utilização para 100%. Como??”

Just last week, Anthropic introduced peak-hour throttling of its services on Claude, meaning that tokens will get consumed more quickly when demand for the service is higher.

Software developers can use Claude Code and other similar applications as part of their daily workflow to help with specific tasks. Any issues with the service can disrupt their work.

A Claude Pro subscription costs users $20 a month. Increasing tiers for higher usage can cost $100 or even $200 per month. The company also offers business pricing for larger organisations.

Anthropic recently accidentally released part of its internal source code for Claude Code due to “human error”.

An internal file with 500,000 lines of code was released on GitHub, a popular platform for developers.

An Anthropic spokesperson said the release was caused by “human error, not a security breach,” and that “no sensitive customer data or credentials were exposed or involved”.

Claude Code’s source code was already partially known, as it had previously been reverse-engineered by independent developers. An earlier version of the source code had also been leaked in February 2025.

Anthropic is currently in a legal battle with the US government over how its tools can be used by the Department of Defense.

AI firm Anthropic seeks weapons expert to stop users from ‘misuse’

Judge rejects Pentagon’s attempt to ‘cripple’ Anthropic

AI system resorts to blackmail if told it will be removed

Subscreva a nossa newsletter Tech Decoded para acompanhar as principais histórias e tendências tecnológicas do mundo. Fora do Reino Unido? Subscreva aqui.

Inteligência artificial

Programação informática

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar