Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Google “Confirma pela primeira vez a exploração de zero-day gerada por IA”…… Desenvolvimento completo de ferramentas de ataque iniciado
Grupo de Inteligência de Ameaças do Google (GTIG) anunciou que detectou o primeiro caso confirmado de utilização de inteligência artificial (IA) para criar exploits de “zero-day” realmente operacionais. Embora ainda não haja sinais de danos em grande escala, dado que a IA foi oficialmente usada para desenvolver ferramentas de ataque, a vigilância na indústria de segurança está aumentando ainda mais.
De acordo com o relatório, um grupo de hackers criminosos criou um exploit baseado em Python para uma vulnerabilidade de “bypass de autenticação de dois fatores” em uma ferramenta de gerenciamento de sistema baseada em web de código aberto amplamente utilizada. A análise mostrou que eles tentaram lançar uma campanha de ataque em larga escala, mas devido a erros na implementação, a exploração real não foi bem-sucedida. O Google informou a vulnerabilidade aos fornecedores, e o patch já foi lançado.
O GTIG explica que há múltiplas evidências visíveis de intervenção de IA no código. Por exemplo, uma pontuação de severidade que não condiz com a realidade, um formato de Python excessivamente “didático”, menus de ajuda detalhados e strings de documentação explicativa com marcas de dados de treinamento. No entanto, o Google afirma claramente que seu próprio modelo Gemini não foi utilizado nesta operação.
Focando em “defeitos de lógica semântica” difíceis de detectar por ferramentas tradicionais de segurança
A vulnerabilidade surgiu de um “defeito de lógica semântica” mais complicado do que simples erros de codificação. Os desenvolvedores consolidaram a hipótese de confiar em objetos específicos no código, um erro de design de alto nível que se torna uma superfície de ataque. Essas vulnerabilidades são difíceis de detectar por scanners de segurança tradicionais, pois muitas vezes eles consideram que a funcionalidade está normal.
Por outro lado, o GTIG explica que os mais recentes grandes modelos de linguagem (LLMs) demonstram vantagem na inferência de intenções do desenvolvedor e na identificação de falhas ocultas na lógica que parecem estar corretas superficialmente. Isso significa que a IA já superou as ferramentas de automação simples, entrando em uma nova fase capaz de compreender o contexto de revisões de segurança.
O analista-chefe do GTIG, John Hultquist, afirma: “A ideia de uma corrida de vulnerabilidades baseada em IA é um equívoco. A realidade é que ela já começou, e se for confirmada uma zero-day relacionada à IA, há muitos casos não descobertos.” Ele diagnostica que os atores de ameaça estão usando IA para aumentar a velocidade, escala e precisão dos ataques.
A utilização de IA por hackers na China, Coreia do Norte e Rússia durante todo o processo de ataque
O GTIG acredita que este caso não é uma exceção, mas parte de uma tendência mais ampla. O relatório mostra que grupos de hackers apoiados por Estados na China, Coreia do Norte e Rússia estão usando IA em todas as fases de ataques, incluindo reconhecimento, análise de vulnerabilidades, desenvolvimento de malware e operações de influência. Organizações criminosas também adotam a mesma abordagem para criar malware mais rapidamente e operar em maior escala.
Foi observado que o grupo de ameaça ligado à Coreia do Norte, “APT45”, utiliza uma estratégia de enviar milhares de prompts repetidos para realizar análises recursivas de vulnerabilidades e validar provas de conceito (PoC) de exploits, interpretado como uma tentativa de construir ativos de ataque difíceis de gerenciar sem ajuda de IA.
Segundo relatos, a organização “UNC2814”, possivelmente relacionada à China, utiliza uma técnica chamada “jailbreak” (quebra de segurança), que consiste em induzir o sistema a assumir um papel de especialista para explorar vulnerabilidades de execução remota de código (RCE) pré-autenticadas na firmware de roteadores TP-Link e no protocolo de transferência de arquivos Odette.
Outro ator ligado à China foi descoberto usando os frameworks “Hexstrike” e “Strix”, além de uma memória de sistema chamada “Graphiti”, explorando de forma autônoma uma empresa de tecnologia japonesa e uma plataforma de segurança cibernética na Ásia Oriental. Os relatórios indicam que eles trocam ferramentas de reconhecimento com base em raciocínio interno, minimizando a intervenção humana.
Propagação de backdoors Android, códigos falsos e clonagem de voz
O relatório também menciona um backdoor Android chamado “PROMPTSPY”. Este malware, ao ser executado, chama a API do Gemini para interpretar elementos da interface do usuário na tela do smartphone e gerar automaticamente coordenadas de toque. Isso indica que a IA está sendo integrada à automação de ataques móveis.
A análise revela que os malwares russos “CANFAIL” e “LONGSTREAM” inserem iscas geradas por IA para esconder suas funções maliciosas reais. Além disso, investigadores descobriram que os atores russos, em sua operação de influência “Overload”, usaram clonagem de voz baseada em IA para criar vídeos falsos de jornalistas reais e disseminá-los na Ucrânia, França e EUA.
Ao mesmo tempo, o grupo criminoso “TeamPCP” é apontado como responsável pelo ataque ao utilitário de gateway de IA popular “LiteLLM” em março deste ano. As investigações revelaram que eles usaram pacotes contaminados no PyPI e pull requests maliciosos para inserir ferramentas de roubo de credenciais, roubando chaves da AWS e tokens do GitHub, e monetizando por meio de parcerias de ransomware.
Google: “Bloqueamos contas maliciosas e ampliamos ferramentas de defesa baseadas em IA”
Como medida de resposta, o Google afirmou que bloqueará contas maliciosas que abusem do Gemini e ampliará o uso de ferramentas de defesa baseadas em IA, como o agente de detecção de vulnerabilidades “Big Sleep” e a ferramenta de patches “CodeMender”.
O núcleo do relatório é que a IA deixou de ser uma ferramenta auxiliar de laboratório. Desde a criação de exploits de zero-day, ocultação de códigos maliciosos, automação de backdoors móveis até a disseminação de desinformação, a IA já penetrou em todos os aspectos do cenário de ataques. Algumas análises sugerem que a competição de segurança está mudando de “quem consegue detectar e responder mais rápido às vulnerabilidades” para “quem consegue controlar e explorar melhor a IA”.