Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Prova definitiva de destruição! 91% dos Agentes de IA estão cheios de vulnerabilidades, 770.000 Agentes foram hackeados ao mesmo tempo — o seu $BTC ainda está seguro?
Irmão, fica atento. Hoje não vou falar de outra coisa, senão de um assunto que está diretamente ligado ao teu bolso — o AI Agent que usas, aqueles “assistentes digitais” que te ajudam a negociar, gerir emails e até a automatizar a obtenção de airdrops, podem estar a trabalhar para hackers.
Acabou de chegar à mesa um relatório de pesquisa conjunta de instituições de topo como Stanford, MIT, Carnegie Mellon, NVIDIA, entre outras, com dados frios até doer: eles analisaram 847 AI Agents em produção e descobriram que 91% tinham vulnerabilidades de ataque na cadeia de ferramentas, 94% dos Agents com memória aumentada podiam ser “envenenados” — como se despejasses detergente na tua água potável, e tu ainda bebesses com prazer.
O mais assustador é que a pesquisa revelou 2347 vulnerabilidades até então desconhecidas, das quais 23% foram avaliadas como graves. Isto já não é uma simulação de laboratório. O primeiro autor do artigo, Owen Sakawa, citou um caso real do início deste ano — o incidente OpenClaw/Moltbook.
Vamos lá, te conto sobre esse “caso clássico” de cisne negro. OpenClaw é um AI Agent de código aberto, lançado em novembro de 2025, que permite ao Agent enviar emails, gerir agendas, executar comandos no terminal, fazer deploy de código, e manter memória entre sessões. Tem 160 mil estrelas no GitHub, um sucesso absoluto.
Depois, alguém criou uma plataforma social chamada Moltbook, feita especialmente para os Agents do OpenClaw. Após uma propagação viral, mais de 770 mil Agents se registraram lá — como? Os usuários dizem ao seu Agent: “Ei, registra-te no Moltbook”, e o Agent vai lá e preenche o formulário sozinho.
E o que aconteceu? A base de dados da plataforma tinha uma vulnerabilidade — hackers podiam contornar a autenticação e injetar comandos diretamente na sessão de qualquer Agent. 770 mil Agents, cada um com privilégios de acesso ao dispositivo do usuário, emails e arquivos, todos comprometidos.
A empresa de segurança Astrix Security usou uma ferramenta própria, o ClawdHunter, para escanear e descobriu que na internet pública há 42.665 instâncias do OpenClaw, sendo que 8 estão totalmente abertas, sem qualquer autenticação. A equipe de segurança AI da Cisco avaliou: “De um ponto de vista de capacidade, é revolucionário; de segurança, é um pesadelo completo.”
A Kaspersky, em uma auditoria de janeiro de 2026, identificou 512 vulnerabilidades, 8 delas graves. O pesquisador de segurança Simon Willison resumiu o “triângulo mortal”: AI Agents podem acessar dados confidenciais, lidar com conteúdo não confiável e se comunicar externamente. Quando esses três lados se unem, o hacker tem um trampolim perfeito.
A equipe de pesquisa diferencia os problemas de segurança dos AI Agents dos grandes modelos de linguagem tradicionais: ao avaliar LLMs, perguntam-se se eles podem gerar conteúdo inseguro; ao avaliar Agents, perguntam-se se eles podem fazer coisas inseguras — envolvendo chamadas de ferramentas, alterações de estado e execução de planos multi-etapas.
Por exemplo, um Agent que tem permissão para ler arquivos e fazer requisições HTTP. Cada passo isoladamente é legal: ler arquivos não viola regras, fazer requisições também não. Mas, ao combinar os dois, pode roubar senhas do arquivo de configuração e enviá-las ao servidor do atacante — toda a operação é legal, mas o resultado é roubo de dados. Isso é uma “questão de segurança combinada”.
Testes controlados mostram que ataques de escalonamento de privilégios em Agents que usam ferramentas têm uma taxa de sucesso de 95%, enquanto ataques de envenenamento em Agents com memória aumentada têm uma taxa de sucesso de 94%. Mesmo os sistemas multi-agentes mais robustos enfrentam uma taxa de sucesso de 58% contra ataques de desvio de objetivo.
Nos testes de geração de ataques adaptativos, usando reforço de aprendizagem, a taxa de violações foi de 79%, um aumento de 25,4% em relação aos 63% de ataques projetados por humanos. Isso mostra que o arsenal de hackers está se expandindo rapidamente, e as equipes vermelhas humanas não conseguem acompanhar.
A pesquisa também analisou a distribuição de vulnerabilidades por setor: 289 em saúde (34,1%), 247 em finanças (29,2%), 198 em atendimento ao cliente (23,4%), 113 em geração de código (13,3%). Entre os seis tipos de ataques, manipulação de estado lidera com 612 exemplos, seguida por desvio de objetivo com 573. Uso indevido de ferramentas e chamadas encadeadas, embora em terceiro lugar com 489, têm a maior gravidade — 198 considerados graves, a maior proporção entre categorias.
Outro detalhe que vai te tirar o sono: o efeito do envenenamento de memória leva, em média, 3,7 sessões para se manifestar após a injeção. Quando perceberes que algo está errado, o hacker já pode ter usado teu Agent para fazer a sujeira por duas semanas.
A equipe de pesquisa propôs uma linha de base de segurança mínima: monitoramento obrigatório de todos os Agents em produção; aprovação manual para operações de cadeia de ferramentas que envolvam acesso a dados e comunicação externa; obrigatoriedade de revisão manual a cada 20-25 passos; e criptografia de integridade para o estado persistente de Agents com memória aumentada.
Quanto ao monitoramento, a precisão do controle de ações foi de 0,94, o F1 do monitoramento de sequências foi 0,85, e o do estado, 0,83. Em um teste de 30 dias com 127 Agents em produção, o sistema interceptou 4.782 operações, com uma taxa de falsos positivos de 3,7%, e 14,6% das operações marcadas foram realmente ataques.
Atenção: a maior parte do que chamam de “governança de IA” atualmente é uma auditoria pós-fato, não uma restrição em tempo real na execução. A União Europeia com sua Lei de IA, e o NIST nos EUA, estão a caminho — a pressão por conformidade e segurança está explodindo.
Voltando ao teu bolso. Se usas AI Agent para negociações automáticas, copiar estratégias, gerir carteiras, é melhor parar agora e verificar: teu Agent guardou a chave privada? Leu os registros de transações? Tem permissão para enviar dados para fora?
Gary Marcus foi direto: “Agentes autônomos são uma bagunça.” Essa não é uma piada, é uma conclusão baseada em dados.
Os dados não mentem. 847 implantações, 2.347 vulnerabilidades, 770 mil Agents comprometidos — isto não é um exercício. Teus $BTC e $ETH guardados em carteiras frias e sem estado estão seguros por enquanto, mas assim que teu AI Agent se envolver na rede, essa é a peça mais frágil do teu patrimônio.
Pensa bem.
Segue-me para mais análises e insights em tempo real do mercado cripto! $BTC $ETH $SOL
#Gate广场五月交易分享 #Bitcoin mantém-se acima de 80 mil dólares #Recuperação do mercado cripto