Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Expansão dos Poderes de Decisão Autónoma da IA, Anthropic Introduz Modo Automático para Claude Code
A Anthropic está a conferir maior autonomia às suas ferramentas de programação de IA, ao mesmo tempo que procura equilibrar eficiência e segurança.
Em 24 de março, a Anthropic anunciou o lançamento do “modo automático” (auto mode) para o Claude Code, permitindo que a IA decida autonomamente quais operações podem ser executadas diretamente, sem necessidade de confirmação individual do utilizador.
Esta funcionalidade atualmente está disponível em versão de pré-visualização de investigação para utilizadores de planos de equipa, e nos próximos dias será expandida para versões empresariais e utilizadores de API.
O núcleo desta nova funcionalidade é um mecanismo de segurança integrado, onde cada operação é revista por uma camada de segurança da IA antes de ser executada. O sistema autoriza automaticamente ações consideradas seguras e bloqueia comportamentos de risco.
A Anthropic afirma que essa camada de segurança também consegue detectar ataques de injeção de prompts, ou seja, comandos maliciosos escondidos no conteúdo que a IA está a processar, tentando induzir o modelo a executar ações não previstas.
A empresa recomenda que os utilizadores utilizem esta nova funcionalidade em ambientes isolados (sandbox) para evitar que riscos potenciais se propaguem para sistemas de produção.
Iteração de produto orientada por dificuldades dos desenvolvedores
Para os desenvolvedores que atualmente utilizam ferramentas de programação de IA, um problema comum é ter que supervisionar cada passo da IA ou, por outro lado, deixar o modelo operar de forma autônoma, assumindo riscos imprevisíveis.
O modo automático da Anthropic é, na essência, uma evolução do comando existente no Claude Code de “não solicitar mais confirmações ao utilizador” (dangerously-skip-permissions).
Este comando originalmente entregava toda a decisão à IA, enquanto o novo modo acrescenta uma camada de filtragem de segurança.
Ao permitir que a IA, e não o utilizador, decida quando solicitar permissões, a Anthropic tenta oferecer maior segurança sem comprometer a eficiência na execução.
Empresas como GitHub, OpenAI, entre outras, já lançaram ferramentas de programação autônoma capazes de substituir os desenvolvedores na execução de tarefas. A iniciativa da Anthropic avança nesse sentido, transferindo a decisão de permissões do utilizador para a própria IA.
O lançamento do modo automático sucede uma série de atualizações recentes de produtos da Anthropic, incluindo o Claude Code Review, que captura automaticamente defeitos antes da fusão de código, e o Dispatch for Cowork, que permite delegar tarefas a um agente de IA.
Essa série de iniciativas demonstra que a Anthropic está a construir sistematicamente uma matriz de produtos de fluxo de trabalho de IA autônoma voltada para desenvolvedores empresariais.
Detalhes importantes ainda por esclarecer
Apesar disso, há incertezas que merecem atenção.
A Anthropic ainda não divulgou os critérios específicos utilizados pelo seu mecanismo de segurança para classificar o risco das operações, uma informação crucial para os desenvolvedores antes de adotarem amplamente a funcionalidade.
Além disso, o modo automático suporta atualmente apenas os modelos Claude Sonnet 4.6 e Opus 4.6, e ainda está em fase de pré-visualização de investigação, o que significa que o produto ainda não está finalizado.
Para empresas que consideram implementar essa funcionalidade em ambientes de produção, as limitações e a falta de transparência dessas informações podem ser fatores decisivos na avaliação de risco.
Aviso de risco e isenção de responsabilidade