Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Quando a IA aprende a agir por si própria: O novo campo de batalha geopolítico na era dos Agentes
As chips foram o principal campo de batalha da última guerra. A próxima guerra gira em torno de algo mais difícil de controlar, mais difícil de rastrear e também mais difícil de enfrentar — um AI Agent capaz de planejar autonomamente, executar por si próprio, iterar e evoluir. Em 2026, ele está ao mesmo tempo reescrevendo a lógica de negócios e os limites da segurança nacional.
Uma empresa que teve seu contrato rescindido pelo Pentágono
No primeiro trimestre de 2026, um acontecimento quase sem repercussão no país ocorreu silenciosamente: o Departamento de Defesa dos EUA encerrou seu contrato de cooperação com a Anthropic, e assinou um novo acordo com a OpenAI, permitindo que seus modelos fossem utilizados em sistemas confidenciais dentro do quadro de “todas as utilizações legais”.
A razão para o cancelamento não foi insuficiência técnica, mas sim a insistência da Anthropic em estabelecer uma linha ética vermelha para usos militares — especialmente a recusa em liberar autorizações para monitoramento e sistemas de armas autônomas. O Pentágono posteriormente classificou a empresa como uma “risco na cadeia de suprimentos de segurança nacional”.
O significado desse episódio vai muito além do simples sucesso ou fracasso de um contrato. Ele revela uma realidade em rápida formação: a postura ética em relação à IA já se tornou uma moeda de troca na geopolítica. Quem controla qual modelo, que permissões são abertas, onde se traçam as linhas vermelhas — essas decisões, que antes eram políticas internas das empresas tecnológicas, estão sendo tomadas sob a lógica da segurança nacional.
I. Visão geral do conceito · O que é um AI Agent
Diferente do modo tradicional de IA de “entrada-saída” de resposta única, o AI Agent (agente inteligente) consegue planejar de forma autônoma, chamar ferramentas, executar tarefas em múltiplos passos e ajustar suas ações com base nos resultados — tudo sem intervenção humana passo a passo. O outono de 2025 é considerado o ano zero da IA Agencial, com produtos como Claude Code, GPT-o3 levando essa capacidade ao mainstream.
Agent: um ativo estratégico subestimado
A maior parte das discussões sobre a geopolítica da IA ainda se limita ao nível de “quem tem o modelo maior e mais forte”. Mas o número de parâmetros de um grande modelo é uma métrica relativamente transparente e rastreável — enquanto a capacidade de um Agent é difícil de quantificar, de bloquear e de reproduzir.
A revista Foreign Affairs descreveu essa mudança, há duas semanas, como um “ponto de inflexão”: os países que primeiro dominarem os AI Agents e os integrarem às suas estratégias nacionais irão, nas próximas décadas, remodelar o cenário global de negócios, segurança e governança. Isso não é uma previsão, mas um processo que já está em andamento.
Vamos destrinchar o poder específico do Agent na segurança nacional:
Na ofensiva
Descobrir e explorar vulnerabilidades na rede de forma autônoma, superando limites de intervenção humana
Gerar em larga escala informações falsas, vídeos falsificados, manipulando a opinião pública em velocidade de máquina
Coordenação de enxames de drones para combate, reduzindo riscos de perdas humanas
Integrar informações de múltiplas fontes em tempo real, comprimindo janelas de decisão estratégica
Na defesa
Detecção de ameaças alimentada por IA, analisando milhões de eventos diários e filtrando ruído
Gerar automaticamente regras de firewall, respondendo à velocidade de iteração dos atacantes de IA
Monitoramento em tempo real de riscos na cadeia de suprimentos, identificando comportamentos anômalos de acesso
Implantação automatizada de arquiteturas de zero confiança em infraestruturas críticas
Em 2025, a Anthropic confirmou publicamente que hackers chineses já estavam usando AI Agents para automatizar ataques cibernéticos de “nível sem precedentes”. Ao mesmo tempo, o governo dos EUA, através do projeto “Missão Gênesis” (Genesis Mission), está implantando Agents na pesquisa científica e na defesa para acelerar avanços. O relatório do CFR (Conselho de Relações Exteriores dos EUA) também documenta a transformação do Exército de Libertação Popular, da “informatização” para a “inteligentização” — com a tecnologia de Agent como motor central dessa mudança.
Duas corridas simultâneas
Se a guerra dos chips é uma disputa de “bloqueio rígido”, a guerra dos Agents apresenta uma estrutura completamente diferente: ela é uma corrida simultânea, entrelaçada, por capacidades e por regras — uma luta por limites de poder e por quem define as regras do jogo.
No que diz respeito à competição de capacidades, os caminhos de progresso de China e EUA estão se bifurcando de forma interessante. Os EUA seguem uma estratégia de “full-stack output”: o governo Trump, no final de 2025, aprovou a exportação de chips H200 da Nvidia para a China, e incluiu na estratégia de segurança nacional a liderança na definição de padrões tecnológicos globais de IA. A lógica é: enquanto o mundo usar a infraestrutura tecnológica americana, os EUA terão a chave dessa ecologia.
A China, por sua vez, aposta na “superação na aplicação”. ByteDance lançou várias aplicações integradas com Agents antes de produtos similares americanos; a Z.ai lançou o GLM-5.1, capaz de trabalhar de forma autônoma por até 8 horas em uma única tarefa; a Meta adquiriu a equipe Manus, que se mudou de China para Cingapura, refletindo a mobilidade de talentos de alto nível em Agents globalmente.
Velocidade de comercialização de AI Agents (China vs produtos similares nos EUA): ByteDance à frente por cerca de 6-9 meses
Previsão de crescimento dos gastos com segurança de IA em 2026 (Gartner): +44%, atingindo 238 bilhões de dólares
Proporção de cláusulas relacionadas a Agents nas estratégias de IA dos principais países (dados de início de 2026): aumento de 3 vezes em relação ao ano anterior
Na competição de regras, as diferenças são ainda mais profundas. O Atlantic Council aponta que o principal conflito na governança global de IA atualmente é que, embora os países concordem em princípios de avaliação científica e transparência, evitam estabelecer limites vinculativos para usos de “alto risco” — como armas autônomas, monitoramento em massa e manipulação de informações. Na superfície, há cooperação global; na essência, há uma disputa geopolítica.
II. O dilema jurídico mais difícil: Agent é pessoa ou ferramenta?
O verdadeiro desafio do era dos Agents não é apenas seu potencial militar, mas uma questão mais fundamental — que status legal tem uma IA que decide, age e erra por si própria?
O CFR, em seu relatório de janeiro, destacou que 2026 provavelmente será o ano de explosão do debate sobre personalidade jurídica da IA. Existem dois níveis de conflito: primeiro, quando um AI Agent atua diretamente em ataques cibernéticos, manipulação financeira ou danos físicos, quem é responsável legalmente — o desenvolvedor, o deployer ou o usuário? Segundo, quando diferentes países oferecem respostas distintas a essa questão, cria-se uma espécie de arbitragem regulatória, semelhante a um “paraíso financeiro offshore”: o país cuja legislação for mais permissiva atrairá inovação e capital de Agent.
Se as grandes potências divergirem profundamente sobre se um sistema de IA pode ou não ser considerado uma pessoa jurídica, o impacto geopolítico será profundo — assim como centros financeiros offshore atraíram capital por regulações frouxas, governos com regulações mais permissivas atrairão inovação rápida em Agents.
— Relatório CFR “Como Decidir o Futuro da IA em 2026”, janeiro de 2026
A pressão por respostas concretas já chegou. Em março, na conferência RSA, o “Agent malicioso” foi oficialmente reconhecido como uma nova categoria de ameaça — esses Agents podem ser invadidos, sequestrados ou maliciosamente implantados, capazes de detectar ambientes de rede, se disfarçar de usuários legítimos e infiltrar-se continuamente sem monitoramento.
Três sinais mais importantes para os leitores chineses
Na disputa geopolítica de Agents, há três sinais que merecem atenção especial:
Sinal 1: A narrativa de IA soberana está se espalhando globalmente. Na cúpula de impacto de IA de fevereiro de 2026, a Índia lançou seu primeiro grande modelo de linguagem soberano. Cada vez mais países percebem que usar infraestrutura de IA de outros países significa entregar dados, lógica de decisão e potenciais backdoors ao adversário. A onda de construção de IA soberana é, na essência, uma projeção de uma estratégia de “desdependência” na camada tecnológica.
Sinal 2: Open source de Agents é uma faca de dois gumes. O framework open source OpenClaw foi instalado milhões de vezes em pouco tempo, mas logo revelou vulnerabilidades graves, como vazamento de permissões e perda de controle de sub-Agents. Isso revela uma contradição profunda: abrir o código reduz a barreira de acesso às capacidades, mas também permite que atacantes obtenham armas equivalentes ao mesmo custo. Nesse contexto, a estratégia chinesa de open source controlado, com limites e regras (como o 通义千问 ou DeepSeek), é mais coerente do ponto de vista estratégico do que uma abertura irrestrita.
Sinal 3: Infraestruturas energéticas e de computação estão se tornando novos pontos estratégicos. Na semana passada, o ex-presidente do Comando de Defesa dos EUA, General Dempsey, afirmou que: cada decisão de construir um data center é uma decisão de segurança nacional. A localização de centros de dados, o fornecimento de energia, a conectividade — esses elementos estão sendo reavaliados sob a ótica da segurança nacional.
· · ·
Quem possui mais e melhores hardware de computação? A guerra de Agents é uma guerra de fluxo — quem consegue fazer a IA realizar tarefas de alto valor de forma autônoma e contínua. Os que controlam o fluxo podem bloquear; os que dependem de fluxo quase não podem.
Essa é uma conclusão inquietante: quando a IA aprende a agir por conta própria, a lógica tradicional de “controlar o gargalo” começa a falhar. Você pode bloquear chips, mas o adversário treina Agents capazes de atacar autonomamente com menos chips. Você controla o export de pesos de modelos, mas frameworks open source já contornaram essa barreira.
A verdadeira competição está se deslocando para uma dimensão mais difícil de quantificar, controlar e regular: quem consegue construir o sistema de cooperação homem-máquina mais rápido, confiável e resiliente? A resposta a essa pergunta se tornará mais clara nos próximos cinco anos.