Expansão dos Poderes de Decisão Autónoma da IA, Anthropic Introduz Modo Automático para Claude Code

robot
Geração de resumo em curso

A Anthropic está a conferir maior autonomia às suas ferramentas de programação de IA, ao mesmo tempo que procura equilibrar eficiência e segurança.

Em 24 de março, a Anthropic anunciou o lançamento do “modo automático” (auto mode) para o Claude Code, permitindo que a IA decida autonomamente quais operações podem ser executadas diretamente, sem necessidade de confirmação individual do utilizador.

Esta funcionalidade atualmente está disponível em versão de pré-visualização de investigação para utilizadores de planos de equipa, e nos próximos dias será expandida para versões empresariais e utilizadores de API.

O núcleo desta nova funcionalidade é um mecanismo de segurança integrado, onde cada operação é revista por uma camada de segurança da IA antes de ser executada. O sistema autoriza automaticamente ações consideradas seguras e bloqueia comportamentos de risco.

A Anthropic afirma que essa camada de segurança também consegue detectar ataques de injeção de prompts, ou seja, comandos maliciosos escondidos no conteúdo que a IA está a processar, tentando induzir o modelo a executar ações não previstas.

A empresa recomenda que os utilizadores utilizem esta nova funcionalidade em ambientes isolados (sandbox) para evitar que riscos potenciais se propaguem para sistemas de produção.

Iteração de produto orientada por dificuldades dos desenvolvedores

Para os desenvolvedores que atualmente utilizam ferramentas de programação de IA, um problema comum é ter que supervisionar cada passo da IA ou, por outro lado, deixar o modelo operar de forma autônoma, assumindo riscos imprevisíveis.

O modo automático da Anthropic é, na essência, uma evolução do comando existente no Claude Code de “não solicitar mais confirmações ao utilizador” (dangerously-skip-permissions).

Este comando originalmente entregava toda a decisão à IA, enquanto o novo modo acrescenta uma camada de filtragem de segurança.

Ao permitir que a IA, e não o utilizador, decida quando solicitar permissões, a Anthropic tenta oferecer maior segurança sem comprometer a eficiência na execução.

Empresas como GitHub, OpenAI, entre outras, já lançaram ferramentas de programação autônoma capazes de substituir os desenvolvedores na execução de tarefas. A iniciativa da Anthropic avança nesse sentido, transferindo a decisão de permissões do utilizador para a própria IA.

O lançamento do modo automático sucede uma série de atualizações recentes de produtos da Anthropic, incluindo o Claude Code Review, que captura automaticamente defeitos antes da fusão de código, e o Dispatch for Cowork, que permite delegar tarefas a um agente de IA.

Essa série de iniciativas demonstra que a Anthropic está a construir sistematicamente uma matriz de produtos de fluxo de trabalho de IA autônoma voltada para desenvolvedores empresariais.

Detalhes importantes ainda por esclarecer

Apesar disso, há incertezas que merecem atenção.

A Anthropic ainda não divulgou os critérios específicos utilizados pelo seu mecanismo de segurança para classificar o risco das operações, uma informação crucial para os desenvolvedores antes de adotarem amplamente a funcionalidade.

Além disso, o modo automático suporta atualmente apenas os modelos Claude Sonnet 4.6 e Opus 4.6, e ainda está em fase de pré-visualização de investigação, o que significa que o produto ainda não está finalizado.

Para empresas que consideram implementar essa funcionalidade em ambientes de produção, as limitações e a falta de transparência dessas informações podem ser fatores decisivos na avaliação de risco.

Aviso de risco e isenção de responsabilidade

        O mercado apresenta riscos, invista com cautela. Este artigo não constitui aconselhamento de investimento pessoal, nem leva em consideração objetivos, situação financeira ou necessidades específicas de cada utilizador. Os utilizadores devem avaliar se as opiniões, pontos de vista ou conclusões aqui apresentadas são compatíveis com a sua situação particular. Investimentos de risco, responsabilidade do investidor.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar