Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Anthropic oficialmente bloqueia OpenClaw: colapso global dos desenvolvedores em 24 horas
Acabou de acontecer — no seio da comunidade de IA ocorreu um episódio de “porta fechada e isolamento do país” suficientemente grande para ficar registado nos anais.
A Anthropic já proibiu oficialmente o uso dos seus próprios pacotes para aceder ao OpenClaw!!!
O pai do Claude Code, Boris Cherny, anunciou:
A partir das 15:00 de 4 de abril (hora de Leste dos EUA) (03:00 de 5 de abril, hora de Pequim), a Anthropic vai bloquear todas as ferramentas de terceiros do Claude, permitindo apenas utilizar essas ferramentas através de pacotes adicionais ou via API.
Isto significa que, para milhares de programadores e equipas de arranque que dependiam do OpenClaw para aumentar a eficiência, a “vantagem do uso ilimitado” desapareceu numa única noite, ficando forçados a avançar para um modo “pagamento por consumo”, extremamente caro.
Os utilizadores fiéis do Claude no OpenClaw levaram uma pancada forte.
O momento em que esta notícia foi anunciada também é muito revelador — o pai do OpenClaw, Peter Steinberger, tinha acabado de trocar de emprego para a OpenAI pouco tempo antes, e o que a Anthropic quer fazer fica absolutamente claro!
Pode-se dizer que isto é uma vingança comercial disfarçada de política.
A notícia subiu rapidamente para o primeiro lugar no quadro do Hacker News, na comunidade de programadores.
Vamos recordar este dia: 4 de abril de 2026. A partir deste momento, a indústria de IA passou da colaboração aberta para a divisão entre gigantes.
O e-mail oficial da Claude prova que, desta vez, a Anthropic está mesmo a atacar o OpenClaw!
Esta política será aplicada primeiro no OpenClaw a partir de 4 de abril, mas aplica-se a toda a cadeia de ferramentas de terceiros e será rapidamente alargada a mais ferramentas.
Como forma de acalmar os ânimos, a Anthropic entregou um subsídio único no valor exato de uma mensalidade. A recolha é válida até 17 de abril.
A pancada final caiu
Atenção: o momento em que esta mensagem foi enviada pela Anthropic é, de facto, pouco elegante.
No dia 3 de abril, sexta-feira, ao fim da tarde — é precisamente o horário que as empresas de internet mais gostam de escolher para dar más notícias.
A Anthropic enviou uma notificação a dezenas de milhares de utilizadores do OpenClaw: a partir de amanhã, o limite da vossa subscrição do Claude já não pode ser usado no OpenClaw; se quiserem continuar, então é pagamento por consumo.
A perseguição de três meses chegou finalmente à última pancada.
O gatilho: uma “defecção” capaz de mudar o panorama
Porque é que a Anthropic, neste momento, sem ligarem à “forma”, decidiu atacar com tanta força uma ferramenta open source?
Porque o personagem central do OpenClaw, o pai das lagostas, Peter Steinberger, juntou-se ao “seu inimigo de longa data”, a OpenAI.
Antes, Peter Steinberger era um dos programadores que melhor entendia o ecossistema do Claude; o seu OpenClaw fazia o Claude ficar extremamente útil.
Agora, para a Anthropic, o OpenClaw tornou-se um “cavalo de Troia” do lado do inimigo.
A Anthropic considera que o OpenClaw já não é apenas uma ferramenta pura de eficiência, mas sim um “recolhedor de informações” metido no seu quintal.
Já que o fundador passou a trabalhar na OpenAI, a vossa ferramenta não vai continuar a aproveitar-se dos meus limites de subscrição.
Peter também se viu obrigado a pronunciar-se, insinuando que a Anthropic está a “fechar a porta para depois apanhar os cães” e a “abusar da comunidade open source”:
Eu e o Dave Morin (membro do conselho de administração do OpenClaw) tentámos convencer a Anthropic a manter a calma.
Mas, no fim, o que conseguimos foi apenas adiar a chegada deste dia em uma semana.
**A aflição dos programadores **O orçamento estoirou de um dia para o outro
Para o programador comum, este bloqueio é literalmente um “ataque de superioridade dimensional”.
Antes, muitos programadores conseguiam fluxos de trabalho de automação extremamente baratos através da compra de subscrições mensais fixas do Claude, em conjunto com as poderosas interfaces do OpenClaw.
Com 20 dólares para comprar um pacote Claude Pro, dá para as lagostas chamarem o Claude a trabalhar 7×24 horas. Com a mesma utilização, através do canal de API, a fatura podia facilmente ir para milhares de dólares.
Um é a subscrição Max com limite de 200 dólares; o outro são custos de API na casa dos quatro dígitos.
Agora, este caminho foi cortado pela própria Anthropic.
Pagamento por consumo significa que já não é um pacote mensal e o custo é completamente imprevisível. Muitos orçamentos de IA de equipas pequenas e médias eram originalmente bloqueados mês a mês; agora podem estourar a qualquer momento.
E mais duro ainda: se não quiseres pagar essa portagem a preços astronómicos, tens de reconstruir à força toda a lógica do negócio no prazo de 24 horas.
Uma palavra — acabou!
As lagostas agitam o mundo, e as inimizades já começaram
As antigas inimizades entre o pai das lagostas e a Anthropic começaram há muito tempo.
Steinberger já tinha criticado publicamente que, na relação com ele, a Anthropic “depende basicamente de cartas de advogados”.
Primeiro golpe**,cisão de marca.
No fim de janeiro, as cartas de advogados forçaram o Clawdbot a mudar de nome.
Segundo golpe**,bloqueio técnico.
No dia 9 de janeiro, a Anthropic colocou discretamente uma verificação no lado do servidor: se o token de subscrição não for enviado a partir do cliente oficial do Claude Code, a ligação é recusada.
Os “truques” centrais do OpenClaw ficaram zerados numa única noite.
Terceiro golpe**,classificação pelos termos.
Em meados de fevereiro, atualização dos termos de serviço: os tokens OAuth das contas Free, Pro e Max, quando utilizados em quaisquer ferramentas de terceiros, passam a contar como violação.
O mais pesado — o quarto golpe — é “ficar-se pela cópia para o fundo”, isto é, copiar as funcionalidades de base.
O Claude Cowork lançou o Dispatch, permitindo controlar remotamente, a partir do telemóvel, o Claude no desktop; e o Claude Code lançou o Channels, ligando Telegram e Discord.
Dentro de quatro semanas, as funcionalidades centrais do OpenClaw foram replicadas 1:1 pela equipa oficial!
Nas palavras do blogueiro de IA Matthew Berman: “Eles literalmente construíram um OpenClaw a partir do próprio OpenClaw.”
A mídia tecnológica Semafor noticiou esta manhã que, quando o chefe de negócios da Anthropic, Paul Smith, foi questionado se os clientes estavam a pedir à empresa para fazer um “OpenClaw” próprio, ele admitiu que sim.
E hoje, esta mensagem de 4 de abril é mesmo a última facada.
Plano descarado: empurrar o “filho deles”
Claude Cowork
Ao mesmo tempo que bloqueia o OpenClaw, a Anthropic revela finalmente as cartas na mesa.
Começam a insinuar de forma frenética: não usem essas ferramentas de terceiros pouco fiáveis — venham experimentar o nosso Claude Cowork nativo!
O Claude Cowork permite um controlo mais profundo por parte do Claude sobre o ambiente de codificação e sobre a interface do computador.
Na verdade, isto também não é uma estratégia exclusiva da Anthropic.
É precisamente a estratégia de “bloqueio de plataforma**” em que os gigantes são particularmente bons:
Primeiro passo: usar ferramentas open source de terceiros para atrair programadores e fazer o ecossistema crescer.
Segundo passo: encontrar uma desculpa (como segurança, pressão sobre a infra-estrutura, etc.) para bloquear ferramentas de terceiros.
Terceiro passo: forçar os utilizadores a migrarem para as ferramentas nativas próprias, mais caras e com mais controlo.
Esta jogada típica de “integração vertical” faz com que controlem firmemente as entradas e a experiência nas suas próprias mãos, enquanto que as “ligações não controladas” dentro do ecossistema vão perdendo gradualmente vantagens.
O que é curioso é que a OpenAI quase na mesma altura escolheu um caminho totalmente oposto.
A OpenAI permite explicitamente que a subscrição do Codex seja utilizada em clientes de terceiros, como o OpenClaw.
Em março, deram mais um passo e anunciaram que iam fornecer gratuitamente permissões do ChatGPT Pro aos mantenedores de projetos open source; o OpenClaw foi mencionado na lista de beneficiários. A Anthropic queria afastar aquelas pessoas — a OpenAI ficou com todas!
Ninguém está completamente inocente
Dito de forma justa, a Anthropic tem os seus argumentos.
Cada utilizador que paga 200 dólares para fazer sair um volume de API na ordem das milhares, está a fazer a empresa perder dinheiro.
Ferramentas de terceiros contornam a telemetria oficial, disfarçam a identidade do cliente e criam zonas cegas de monitorização — tudo isto são problemas reais de engenharia e de segurança.
E além disso, Steinberger está agora sentado num escritório da OpenAI — na visão da Anthropic, o OpenClaw deixou de ser “um convidado chato a aproveitar-se da comida” e passou a ser “um espião enviado do lado de lá”.
E o próprio OpenClaw também não está limpo.
Foi divulgada uma vulnerabilidade crítica com CVSS 8.8 (CVE-2026-25253): um atacante pode roubar os tokens de autenticação dos utilizadores através de um único link.
Na rede pública, as entidades de segurança já detetaram mais de trinta mil instâncias do OpenClaw com portas escancaradas.
Mas estas racionalizações não conseguem apagar a sensação, nos programadores, de terem sido enganados.
A plataforma abre primeiro a porta, espera que as pessoas entrem para construírem os prédios, e só depois anuncia que há “outro plano” — este guião já foi repetido demasiado vezes.
X mata clientes de terceiros, a Apple aperta o App Store, a Google corta APIs gratuitas — é sempre a mesma história.
Em cada ocasião, quem fica ferido são os programadores.
**O ecossistema aberto entra no crepúsculo **Fechar-se em clausura entre gigantes de IA
Hoje, esta jogada final da Anthropic deixa-nos perceber uma realidade dolorosa —
Aquela era dourada de IA livre e aberta, que pertence aos programadores, está a chegar ao fim.
Antes, pensávamos que a IA seria como a internet do início: baseada em partilha de protocolos e baseada na evolução da comunidade. Mas a verdade é que os detentores dos modelos controlam o poder de vida e morte e podem, a qualquer momento, tornar inúteis os esforços de dezenas de milhares de pessoas.
Agora, a contagem decrescente já começou — falta pouco para o ultimato das 15:00 de 4 de abril.
Os programadores enfrentam três escolhas cruéis—
Engolir as consequências, suportar pagamento por consumo a preços exorbitantes e continuar a usar o OpenClaw até o orçamento acabar?
Ou então migrar tudo de uma vez, ajoelhar-se sob as ferramentas nativas da Anthropic e aceitar o bloqueio de plataforma?
Ou, por fim, indignar-se e abandonar o Claude completamente.
Por último, enquanto os gigantes estão ocupados com a “luta dos deuses” por eles próprios, não se esqueçam de uma coisa: foram dezenas de milhares de programadores, com linhas de código, que construíram o vosso trono de avaliação na casa dos mil milhões.
Desta vez, a Anthropic ganhou a competição, mas perdeu completamente a confiança da comunidade!