Quando a IA aprende a agir por si própria: O novo campo de batalha geopolítico na era dos Agentes

As chips foram o principal campo de batalha da última guerra. A próxima guerra gira em torno de algo mais difícil de controlar, mais difícil de rastrear e também mais difícil de enfrentar — um AI Agent capaz de planejar autonomamente, executar por si próprio, iterar e evoluir. Em 2026, ele está ao mesmo tempo reescrevendo a lógica de negócios e os limites da segurança nacional.

Uma empresa que teve seu contrato rescindido pelo Pentágono

No primeiro trimestre de 2026, um acontecimento quase sem repercussão no país ocorreu silenciosamente: o Departamento de Defesa dos EUA encerrou seu contrato de cooperação com a Anthropic, e assinou um novo acordo com a OpenAI, permitindo que seus modelos fossem utilizados em sistemas confidenciais dentro do quadro de “todas as utilizações legais”.

A razão para o cancelamento não foi insuficiência técnica, mas sim a insistência da Anthropic em estabelecer uma linha ética vermelha para usos militares — especialmente a recusa em liberar autorizações para monitoramento e sistemas de armas autônomas. O Pentágono posteriormente classificou a empresa como uma “risco na cadeia de suprimentos de segurança nacional”.

O significado desse episódio vai muito além do simples sucesso ou fracasso de um contrato. Ele revela uma realidade em rápida formação: a postura ética em relação à IA já se tornou uma moeda de troca na geopolítica. Quem controla qual modelo, que permissões são abertas, onde se traçam as linhas vermelhas — essas decisões, que antes eram políticas internas das empresas tecnológicas, estão sendo tomadas sob a lógica da segurança nacional.

I. Visão geral do conceito · O que é um AI Agent

Diferente do modo tradicional de IA de “entrada-saída” de resposta única, o AI Agent (agente inteligente) consegue planejar de forma autônoma, chamar ferramentas, executar tarefas em múltiplos passos e ajustar suas ações com base nos resultados — tudo sem intervenção humana passo a passo. O outono de 2025 é considerado o ano zero da IA Agencial, com produtos como Claude Code, GPT-o3 levando essa capacidade ao mainstream.

Agent: um ativo estratégico subestimado

A maior parte das discussões sobre a geopolítica da IA ainda se limita ao nível de “quem tem o modelo maior e mais forte”. Mas o número de parâmetros de um grande modelo é uma métrica relativamente transparente e rastreável — enquanto a capacidade de um Agent é difícil de quantificar, de bloquear e de reproduzir.

A revista Foreign Affairs descreveu essa mudança, há duas semanas, como um “ponto de inflexão”: os países que primeiro dominarem os AI Agents e os integrarem às suas estratégias nacionais irão, nas próximas décadas, remodelar o cenário global de negócios, segurança e governança. Isso não é uma previsão, mas um processo que já está em andamento.

Vamos destrinchar o poder específico do Agent na segurança nacional:

Na ofensiva

  • Descobrir e explorar vulnerabilidades na rede de forma autônoma, superando limites de intervenção humana

  • Gerar em larga escala informações falsas, vídeos falsificados, manipulando a opinião pública em velocidade de máquina

  • Coordenação de enxames de drones para combate, reduzindo riscos de perdas humanas

  • Integrar informações de múltiplas fontes em tempo real, comprimindo janelas de decisão estratégica

Na defesa

  • Detecção de ameaças alimentada por IA, analisando milhões de eventos diários e filtrando ruído

  • Gerar automaticamente regras de firewall, respondendo à velocidade de iteração dos atacantes de IA

  • Monitoramento em tempo real de riscos na cadeia de suprimentos, identificando comportamentos anômalos de acesso

  • Implantação automatizada de arquiteturas de zero confiança em infraestruturas críticas

Em 2025, a Anthropic confirmou publicamente que hackers chineses já estavam usando AI Agents para automatizar ataques cibernéticos de “nível sem precedentes”. Ao mesmo tempo, o governo dos EUA, através do projeto “Missão Gênesis” (Genesis Mission), está implantando Agents na pesquisa científica e na defesa para acelerar avanços. O relatório do CFR (Conselho de Relações Exteriores dos EUA) também documenta a transformação do Exército de Libertação Popular, da “informatização” para a “inteligentização” — com a tecnologia de Agent como motor central dessa mudança.

Duas corridas simultâneas

Se a guerra dos chips é uma disputa de “bloqueio rígido”, a guerra dos Agents apresenta uma estrutura completamente diferente: ela é uma corrida simultânea, entrelaçada, por capacidades e por regras — uma luta por limites de poder e por quem define as regras do jogo.

No que diz respeito à competição de capacidades, os caminhos de progresso de China e EUA estão se bifurcando de forma interessante. Os EUA seguem uma estratégia de “full-stack output”: o governo Trump, no final de 2025, aprovou a exportação de chips H200 da Nvidia para a China, e incluiu na estratégia de segurança nacional a liderança na definição de padrões tecnológicos globais de IA. A lógica é: enquanto o mundo usar a infraestrutura tecnológica americana, os EUA terão a chave dessa ecologia.

A China, por sua vez, aposta na “superação na aplicação”. ByteDance lançou várias aplicações integradas com Agents antes de produtos similares americanos; a Z.ai lançou o GLM-5.1, capaz de trabalhar de forma autônoma por até 8 horas em uma única tarefa; a Meta adquiriu a equipe Manus, que se mudou de China para Cingapura, refletindo a mobilidade de talentos de alto nível em Agents globalmente.

  • Velocidade de comercialização de AI Agents (China vs produtos similares nos EUA): ByteDance à frente por cerca de 6-9 meses

  • Previsão de crescimento dos gastos com segurança de IA em 2026 (Gartner): +44%, atingindo 238 bilhões de dólares

  • Proporção de cláusulas relacionadas a Agents nas estratégias de IA dos principais países (dados de início de 2026): aumento de 3 vezes em relação ao ano anterior

Na competição de regras, as diferenças são ainda mais profundas. O Atlantic Council aponta que o principal conflito na governança global de IA atualmente é que, embora os países concordem em princípios de avaliação científica e transparência, evitam estabelecer limites vinculativos para usos de “alto risco” — como armas autônomas, monitoramento em massa e manipulação de informações. Na superfície, há cooperação global; na essência, há uma disputa geopolítica.

II. O dilema jurídico mais difícil: Agent é pessoa ou ferramenta?

O verdadeiro desafio do era dos Agents não é apenas seu potencial militar, mas uma questão mais fundamental — que status legal tem uma IA que decide, age e erra por si própria?

O CFR, em seu relatório de janeiro, destacou que 2026 provavelmente será o ano de explosão do debate sobre personalidade jurídica da IA. Existem dois níveis de conflito: primeiro, quando um AI Agent atua diretamente em ataques cibernéticos, manipulação financeira ou danos físicos, quem é responsável legalmente — o desenvolvedor, o deployer ou o usuário? Segundo, quando diferentes países oferecem respostas distintas a essa questão, cria-se uma espécie de arbitragem regulatória, semelhante a um “paraíso financeiro offshore”: o país cuja legislação for mais permissiva atrairá inovação e capital de Agent.

Se as grandes potências divergirem profundamente sobre se um sistema de IA pode ou não ser considerado uma pessoa jurídica, o impacto geopolítico será profundo — assim como centros financeiros offshore atraíram capital por regulações frouxas, governos com regulações mais permissivas atrairão inovação rápida em Agents.

— Relatório CFR “Como Decidir o Futuro da IA em 2026”, janeiro de 2026

A pressão por respostas concretas já chegou. Em março, na conferência RSA, o “Agent malicioso” foi oficialmente reconhecido como uma nova categoria de ameaça — esses Agents podem ser invadidos, sequestrados ou maliciosamente implantados, capazes de detectar ambientes de rede, se disfarçar de usuários legítimos e infiltrar-se continuamente sem monitoramento.

Três sinais mais importantes para os leitores chineses

Na disputa geopolítica de Agents, há três sinais que merecem atenção especial:

Sinal 1: A narrativa de IA soberana está se espalhando globalmente. Na cúpula de impacto de IA de fevereiro de 2026, a Índia lançou seu primeiro grande modelo de linguagem soberano. Cada vez mais países percebem que usar infraestrutura de IA de outros países significa entregar dados, lógica de decisão e potenciais backdoors ao adversário. A onda de construção de IA soberana é, na essência, uma projeção de uma estratégia de “desdependência” na camada tecnológica.

Sinal 2: Open source de Agents é uma faca de dois gumes. O framework open source OpenClaw foi instalado milhões de vezes em pouco tempo, mas logo revelou vulnerabilidades graves, como vazamento de permissões e perda de controle de sub-Agents. Isso revela uma contradição profunda: abrir o código reduz a barreira de acesso às capacidades, mas também permite que atacantes obtenham armas equivalentes ao mesmo custo. Nesse contexto, a estratégia chinesa de open source controlado, com limites e regras (como o 通义千问 ou DeepSeek), é mais coerente do ponto de vista estratégico do que uma abertura irrestrita.

Sinal 3: Infraestruturas energéticas e de computação estão se tornando novos pontos estratégicos. Na semana passada, o ex-presidente do Comando de Defesa dos EUA, General Dempsey, afirmou que: cada decisão de construir um data center é uma decisão de segurança nacional. A localização de centros de dados, o fornecimento de energia, a conectividade — esses elementos estão sendo reavaliados sob a ótica da segurança nacional.

· · ·

Quem possui mais e melhores hardware de computação? A guerra de Agents é uma guerra de fluxo — quem consegue fazer a IA realizar tarefas de alto valor de forma autônoma e contínua. Os que controlam o fluxo podem bloquear; os que dependem de fluxo quase não podem.

Essa é uma conclusão inquietante: quando a IA aprende a agir por conta própria, a lógica tradicional de “controlar o gargalo” começa a falhar. Você pode bloquear chips, mas o adversário treina Agents capazes de atacar autonomamente com menos chips. Você controla o export de pesos de modelos, mas frameworks open source já contornaram essa barreira.

A verdadeira competição está se deslocando para uma dimensão mais difícil de quantificar, controlar e regular: quem consegue construir o sistema de cooperação homem-máquina mais rápido, confiável e resiliente? A resposta a essa pergunta se tornará mais clara nos próximos cinco anos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar