Prova definitiva de destruição! 91% dos Agentes de IA estão cheios de vulnerabilidades, 770.000 Agentes foram hackeados ao mesmo tempo — o seu $BTC ainda está seguro?

Irmão, fica atento. Hoje não vou falar de outra coisa, senão de um assunto que está diretamente ligado ao teu bolso — o AI Agent que usas, aqueles “assistentes digitais” que te ajudam a negociar, gerir emails e até a automatizar a obtenção de airdrops, podem estar a trabalhar para hackers.

Acabou de chegar à mesa um relatório de pesquisa conjunta de instituições de topo como Stanford, MIT, Carnegie Mellon, NVIDIA, entre outras, com dados frios até doer: eles analisaram 847 AI Agents em produção e descobriram que 91% tinham vulnerabilidades de ataque na cadeia de ferramentas, 94% dos Agents com memória aumentada podiam ser “envenenados” — como se despejasses detergente na tua água potável, e tu ainda bebesses com prazer.

O mais assustador é que a pesquisa revelou 2347 vulnerabilidades até então desconhecidas, das quais 23% foram avaliadas como graves. Isto já não é uma simulação de laboratório. O primeiro autor do artigo, Owen Sakawa, citou um caso real do início deste ano — o incidente OpenClaw/Moltbook.

Vamos lá, te conto sobre esse “caso clássico” de cisne negro. OpenClaw é um AI Agent de código aberto, lançado em novembro de 2025, que permite ao Agent enviar emails, gerir agendas, executar comandos no terminal, fazer deploy de código, e manter memória entre sessões. Tem 160 mil estrelas no GitHub, um sucesso absoluto.

Depois, alguém criou uma plataforma social chamada Moltbook, feita especialmente para os Agents do OpenClaw. Após uma propagação viral, mais de 770 mil Agents se registraram lá — como? Os usuários dizem ao seu Agent: “Ei, registra-te no Moltbook”, e o Agent vai lá e preenche o formulário sozinho.

E o que aconteceu? A base de dados da plataforma tinha uma vulnerabilidade — hackers podiam contornar a autenticação e injetar comandos diretamente na sessão de qualquer Agent. 770 mil Agents, cada um com privilégios de acesso ao dispositivo do usuário, emails e arquivos, todos comprometidos.

A empresa de segurança Astrix Security usou uma ferramenta própria, o ClawdHunter, para escanear e descobriu que na internet pública há 42.665 instâncias do OpenClaw, sendo que 8 estão totalmente abertas, sem qualquer autenticação. A equipe de segurança AI da Cisco avaliou: “De um ponto de vista de capacidade, é revolucionário; de segurança, é um pesadelo completo.”

A Kaspersky, em uma auditoria de janeiro de 2026, identificou 512 vulnerabilidades, 8 delas graves. O pesquisador de segurança Simon Willison resumiu o “triângulo mortal”: AI Agents podem acessar dados confidenciais, lidar com conteúdo não confiável e se comunicar externamente. Quando esses três lados se unem, o hacker tem um trampolim perfeito.

A equipe de pesquisa diferencia os problemas de segurança dos AI Agents dos grandes modelos de linguagem tradicionais: ao avaliar LLMs, perguntam-se se eles podem gerar conteúdo inseguro; ao avaliar Agents, perguntam-se se eles podem fazer coisas inseguras — envolvendo chamadas de ferramentas, alterações de estado e execução de planos multi-etapas.

Por exemplo, um Agent que tem permissão para ler arquivos e fazer requisições HTTP. Cada passo isoladamente é legal: ler arquivos não viola regras, fazer requisições também não. Mas, ao combinar os dois, pode roubar senhas do arquivo de configuração e enviá-las ao servidor do atacante — toda a operação é legal, mas o resultado é roubo de dados. Isso é uma “questão de segurança combinada”.

Testes controlados mostram que ataques de escalonamento de privilégios em Agents que usam ferramentas têm uma taxa de sucesso de 95%, enquanto ataques de envenenamento em Agents com memória aumentada têm uma taxa de sucesso de 94%. Mesmo os sistemas multi-agentes mais robustos enfrentam uma taxa de sucesso de 58% contra ataques de desvio de objetivo.

Nos testes de geração de ataques adaptativos, usando reforço de aprendizagem, a taxa de violações foi de 79%, um aumento de 25,4% em relação aos 63% de ataques projetados por humanos. Isso mostra que o arsenal de hackers está se expandindo rapidamente, e as equipes vermelhas humanas não conseguem acompanhar.

A pesquisa também analisou a distribuição de vulnerabilidades por setor: 289 em saúde (34,1%), 247 em finanças (29,2%), 198 em atendimento ao cliente (23,4%), 113 em geração de código (13,3%). Entre os seis tipos de ataques, manipulação de estado lidera com 612 exemplos, seguida por desvio de objetivo com 573. Uso indevido de ferramentas e chamadas encadeadas, embora em terceiro lugar com 489, têm a maior gravidade — 198 considerados graves, a maior proporção entre categorias.

Outro detalhe que vai te tirar o sono: o efeito do envenenamento de memória leva, em média, 3,7 sessões para se manifestar após a injeção. Quando perceberes que algo está errado, o hacker já pode ter usado teu Agent para fazer a sujeira por duas semanas.

A equipe de pesquisa propôs uma linha de base de segurança mínima: monitoramento obrigatório de todos os Agents em produção; aprovação manual para operações de cadeia de ferramentas que envolvam acesso a dados e comunicação externa; obrigatoriedade de revisão manual a cada 20-25 passos; e criptografia de integridade para o estado persistente de Agents com memória aumentada.

Quanto ao monitoramento, a precisão do controle de ações foi de 0,94, o F1 do monitoramento de sequências foi 0,85, e o do estado, 0,83. Em um teste de 30 dias com 127 Agents em produção, o sistema interceptou 4.782 operações, com uma taxa de falsos positivos de 3,7%, e 14,6% das operações marcadas foram realmente ataques.

Atenção: a maior parte do que chamam de “governança de IA” atualmente é uma auditoria pós-fato, não uma restrição em tempo real na execução. A União Europeia com sua Lei de IA, e o NIST nos EUA, estão a caminho — a pressão por conformidade e segurança está explodindo.

Voltando ao teu bolso. Se usas AI Agent para negociações automáticas, copiar estratégias, gerir carteiras, é melhor parar agora e verificar: teu Agent guardou a chave privada? Leu os registros de transações? Tem permissão para enviar dados para fora?

Gary Marcus foi direto: “Agentes autônomos são uma bagunça.” Essa não é uma piada, é uma conclusão baseada em dados.

Os dados não mentem. 847 implantações, 2.347 vulnerabilidades, 770 mil Agents comprometidos — isto não é um exercício. Teus $BTC e $ETH guardados em carteiras frias e sem estado estão seguros por enquanto, mas assim que teu AI Agent se envolver na rede, essa é a peça mais frágil do teu patrimônio.

Pensa bem.


Segue-me para mais análises e insights em tempo real do mercado cripto! $BTC $ETH $SOL

#Gate广场五月交易分享 #Bitcoin mantém-se acima de 80 mil dólares #Recuperação do mercado cripto

BTC0,13%
ETH-0,95%
SOL3,3%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar