Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Proibição de criação de lagostas? A Anthropic planeja cobrar taxas adicionais pelo uso de ferramentas de terceiros, o que equivale a bloquear o OpenClaw
O novo gigante emergente da IA, Anthropic, desferiu um golpe pesado para programadores que utilizam o OpenClaw (“lagosta”) e para os developers do seu modelo de linguagem Claude.
No dia 3 de abril, de acordo com o site de tecnologia The Verge, a Anthropic irá bloquear ferramentas de terceiros como o OpenClaw de acederem ao serviço de subscrição do Claude. Os utilizadores terão de ativar um modo de pagamento sob demanda específico para continuar a combinar o OpenClaw com o Claude.
Um e-mail enviado pela empresa aos utilizadores mostra que, a partir das 15h00 de 4 de abril, hora do leste dos EUA, os utilizadores que usam a IA do Claude através do OpenClaw deixarão de conseguir aplicar as quotas de subscrição anteriores.
Isto significa que a Anthropic está a cortar o acesso de pacotes de subscrição padrão por parte de chamadas de terceiros encapsuladas, incluindo o OpenClaw, forçando os utilizadores a migrarem para um sistema de faturação separado de pagamento por utilização. Este modelo costuma ter um custo por token superior às quotas do modelo de subscrição, o que implica que os programadores enfrentarão custos acima do orçamento definido, difíceis de prever.
Para a maioria dos utilizadores que usam simultaneamente o OpenClaw e o Claude, esta mudança equivale, na essência, a uma proibição. Embora a Anthropic não esteja a bloquear diretamente o acesso ao OpenClaw no nível técnico, para equipas que constroem fluxos de trabalho completos em torno do OpenClaw e dependem de o chamarem ao Claude através de interfaces comuns, esta alteração trará imediatamente uma dupla pressão a nível financeiro e operacional.
De acordo com informações públicas, a Anthropic foi fundada em 2021 por ex-funcionários da OpenAI. Os seus produtos incluem modelos de linguagem da série Claude. Desde a sua fundação, a empresa recebeu investimentos de gigantes da tecnologia como a Amazon, Google, NVIDIA e Salesforce.
No que toca a esta alteração da política de pagamento, já há inúmeros programadores que expressaram a sua insatisfação nas redes sociais, queixando-se da instabilidade da plataforma e de uma crise de confiança. Alguns conhecidos developers de IA apontaram que escolheram a plataforma Claude porque a Anthropic parece estar mais disposta do que outros concorrentes a construir ecossistemas de terceiros; e que esta mudança de política enfraquece essa vantagem.
Por detrás disso está a concorrência cada vez mais intensa entre empresas de IA. O OpenClaw nasceu originalmente a partir do Claude, dependendo totalmente das capacidades de inteligência fornecidas pelo Claude. E, sob exigência da Anthropic, alterou o nome de “Clawdbot” para a “lagosta”, conhecida atualmente e amplamente difundida. Depois disso, o fundador do OpenClaw, Peter Steinberger, juntou-se à OpenAI.
Ao aumentar os custos de utilização de ferramentas de terceiros, a Anthropic está a tentar orientar os utilizadores para o seu próprio ecossistema. No início deste ano, a Anthropic lançou a aplicação de agentes inteligentes para ambiente de trabalho, Claude Cowork. Recentemente, a Anthropic lançou a sua própria “lagosta” e anunciou que os utilizadores dos seus produtos Claude Code e Claude Cowork podem fazer com que o Claude controle o seu computador, abrindo ficheiros, utilizando o navegador e executando ferramentas de desenvolvimento.
E, pouco antes, a Anthropic, de forma inesperada, “open source”izou 510 mil linhas de código-fonte do seu assistente de codificação Claude Code, incluindo 4 756 ficheiros de origem, mais de 510kódulos de ferramentas e várias funcionalidades ainda não publicadas que terão sido divulgadas. Para uma startup como a Anthropic, que enfatiza “segurança” e está a procurar ativamente o seu IPO, a fuga do código-fonte é, sem dúvida, um grande golpe.
(Fonte: The Paper, 澎湃新闻)