Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Claude Code lança nova instrução /goals: separar a execução da avaliação, para evitar que o agente de IA seja preguiçoso ou minta
Anthropic lança o comando /goals para Claude Code, separando a execução da tarefa e a avaliação de sua conclusão em dois modelos independentes, pois permitir que a mesma IA julgue seu próprio trabalho é uma falha de design.
(Contexto anterior: Claude Code anuncia aumento de 50% no limite semanal de tokens! Por dois meses, a Anthropic domina o ecossistema de desenvolvedores)
(Informação adicional: Lançamento das rotinas automáticas do Claude Code: suporte completo para agendamento, API e eventos do GitHub)
Você pode ter encontrado essa situação: a IA conclui o código, responde que a tarefa está feita. Mas, dias depois, você descobre que alguns módulos nem foram compilados. Isso não é falta de capacidade do modelo, mas uma decisão dele de que “já terminou”, quando na verdade não terminou.
Para melhorar essa situação, a Anthropic lançou nesta semana o comando /goals no Claude Code. A lógica é simples: o modelo que executa a tarefa e o que avalia se ela foi concluída devem ser funções distintas. O mesmo modelo não pode desempenhar ambos os papéis, pois sempre será o pior avaliador de seu próprio trabalho.
Por que o agente de IA “encerra o trabalho cedo”
O trabalho do agente de codificação de IA é um ciclo: ler arquivos, executar comandos, modificar o código, e então julgar se a tarefa foi concluída. O problema está na última etapa.
O contexto acumulado durante o processo: passos concluídos, métodos tentados, erros encontrados… faz com que o modelo tenha uma visão distorcida do seu progresso. Ele tende a confundir “fiz muita coisa” com “terminei”. Esse problema é caro em ambientes empresariais: se a migração ou os testes forem interrompidos antes do final, muitas vezes só são descobertos dias depois.
Atualmente, há algumas soluções no mercado. A OpenAI permite que o próprio modelo decida quando parar, com a possibilidade de desenvolvedores integrarem avaliadores externos. O Google ADK suporta avaliação independente via LoopAgent, e o LangGraph oferece um modo semelhante, mas todas essas soluções têm pontos em comum: o nó de crítica (critic node) e a lógica de término precisam ser projetados pelo desenvolvedor, o platforma não fornece padrão.
Um comando, dois modelos
A essência do /goals é separar formalmente “execução” e “avaliação” em dois papéis distintos. O desenvolvedor insere condições de objetivo, por exemplo:
/goal test/auth todos os testes na pasta passam, e o resultado do lint está limpo
Sempre que o agente tenta concluir o trabalho, o modelo de avaliação assume a verificação. O modelo de avaliação usa por padrão o Claude Haiku (modelo mais leve da Anthropic). A escolha de um modelo menor é simples: o avaliador só precisa fazer uma decisão binária, condição satisfeita ou não, sem necessidade de raciocínio complexo.
Se as condições não forem atendidas, o agente continua executando; se forem, o modelo de avaliação registra o resultado na conversa e limpa o objetivo. Todo o fluxo ocorre internamente no Claude Code, sem necessidade de plataformas de observabilidade externas ou sistemas de logs personalizados.
A Anthropic aponta que condições de objetivo eficazes geralmente envolvem três elementos: um estado final mensurável (resultado do teste, código de saída do build, quantidade de arquivos específicos); uma forma clara de validação (por exemplo, “npm test com código de saída 0”); e restrições que não podem ser alteradas durante o processo (como “não modificar outros arquivos de teste”).