Google “Confirma pela primeira vez a exploração de zero-day gerada por IA”…… Desenvolvimento completo de ferramentas de ataque iniciado

robot
Geração de resumo em curso

Grupo de Inteligência de Ameaças do Google (GTIG) anunciou que detectou o primeiro caso confirmado de utilização de inteligência artificial (IA) para criar exploits de “zero-day” realmente operacionais. Embora ainda não haja sinais de danos em grande escala, dado que a IA foi oficialmente usada para desenvolver ferramentas de ataque, a vigilância na indústria de segurança está aumentando ainda mais.

De acordo com o relatório, um grupo de hackers criminosos criou um exploit baseado em Python para uma vulnerabilidade de “bypass de autenticação de dois fatores” em uma ferramenta de gerenciamento de sistema baseada em web de código aberto amplamente utilizada. A análise mostrou que eles tentaram lançar uma campanha de ataque em larga escala, mas devido a erros na implementação, a exploração real não foi bem-sucedida. O Google informou a vulnerabilidade aos fornecedores, e o patch já foi lançado.

O GTIG explica que há múltiplas evidências visíveis de intervenção de IA no código. Por exemplo, uma pontuação de severidade que não condiz com a realidade, um formato de Python excessivamente “didático”, menus de ajuda detalhados e strings de documentação explicativa com marcas de dados de treinamento. No entanto, o Google afirma claramente que seu próprio modelo Gemini não foi utilizado nesta operação.

Focando em “defeitos de lógica semântica” difíceis de detectar por ferramentas tradicionais de segurança

A vulnerabilidade surgiu de um “defeito de lógica semântica” mais complicado do que simples erros de codificação. Os desenvolvedores consolidaram a hipótese de confiar em objetos específicos no código, um erro de design de alto nível que se torna uma superfície de ataque. Essas vulnerabilidades são difíceis de detectar por scanners de segurança tradicionais, pois muitas vezes eles consideram que a funcionalidade está normal.

Por outro lado, o GTIG explica que os mais recentes grandes modelos de linguagem (LLMs) demonstram vantagem na inferência de intenções do desenvolvedor e na identificação de falhas ocultas na lógica que parecem estar corretas superficialmente. Isso significa que a IA já superou as ferramentas de automação simples, entrando em uma nova fase capaz de compreender o contexto de revisões de segurança.

O analista-chefe do GTIG, John Hultquist, afirma: “A ideia de uma corrida de vulnerabilidades baseada em IA é um equívoco. A realidade é que ela já começou, e se for confirmada uma zero-day relacionada à IA, há muitos casos não descobertos.” Ele diagnostica que os atores de ameaça estão usando IA para aumentar a velocidade, escala e precisão dos ataques.

A utilização de IA por hackers na China, Coreia do Norte e Rússia durante todo o processo de ataque

O GTIG acredita que este caso não é uma exceção, mas parte de uma tendência mais ampla. O relatório mostra que grupos de hackers apoiados por Estados na China, Coreia do Norte e Rússia estão usando IA em todas as fases de ataques, incluindo reconhecimento, análise de vulnerabilidades, desenvolvimento de malware e operações de influência. Organizações criminosas também adotam a mesma abordagem para criar malware mais rapidamente e operar em maior escala.

Foi observado que o grupo de ameaça ligado à Coreia do Norte, “APT45”, utiliza uma estratégia de enviar milhares de prompts repetidos para realizar análises recursivas de vulnerabilidades e validar provas de conceito (PoC) de exploits, interpretado como uma tentativa de construir ativos de ataque difíceis de gerenciar sem ajuda de IA.

Segundo relatos, a organização “UNC2814”, possivelmente relacionada à China, utiliza uma técnica chamada “jailbreak” (quebra de segurança), que consiste em induzir o sistema a assumir um papel de especialista para explorar vulnerabilidades de execução remota de código (RCE) pré-autenticadas na firmware de roteadores TP-Link e no protocolo de transferência de arquivos Odette.

Outro ator ligado à China foi descoberto usando os frameworks “Hexstrike” e “Strix”, além de uma memória de sistema chamada “Graphiti”, explorando de forma autônoma uma empresa de tecnologia japonesa e uma plataforma de segurança cibernética na Ásia Oriental. Os relatórios indicam que eles trocam ferramentas de reconhecimento com base em raciocínio interno, minimizando a intervenção humana.

Propagação de backdoors Android, códigos falsos e clonagem de voz

O relatório também menciona um backdoor Android chamado “PROMPTSPY”. Este malware, ao ser executado, chama a API do Gemini para interpretar elementos da interface do usuário na tela do smartphone e gerar automaticamente coordenadas de toque. Isso indica que a IA está sendo integrada à automação de ataques móveis.

A análise revela que os malwares russos “CANFAIL” e “LONGSTREAM” inserem iscas geradas por IA para esconder suas funções maliciosas reais. Além disso, investigadores descobriram que os atores russos, em sua operação de influência “Overload”, usaram clonagem de voz baseada em IA para criar vídeos falsos de jornalistas reais e disseminá-los na Ucrânia, França e EUA.

Ao mesmo tempo, o grupo criminoso “TeamPCP” é apontado como responsável pelo ataque ao utilitário de gateway de IA popular “LiteLLM” em março deste ano. As investigações revelaram que eles usaram pacotes contaminados no PyPI e pull requests maliciosos para inserir ferramentas de roubo de credenciais, roubando chaves da AWS e tokens do GitHub, e monetizando por meio de parcerias de ransomware.

Google: “Bloqueamos contas maliciosas e ampliamos ferramentas de defesa baseadas em IA”

Como medida de resposta, o Google afirmou que bloqueará contas maliciosas que abusem do Gemini e ampliará o uso de ferramentas de defesa baseadas em IA, como o agente de detecção de vulnerabilidades “Big Sleep” e a ferramenta de patches “CodeMender”.

O núcleo do relatório é que a IA deixou de ser uma ferramenta auxiliar de laboratório. Desde a criação de exploits de zero-day, ocultação de códigos maliciosos, automação de backdoors móveis até a disseminação de desinformação, a IA já penetrou em todos os aspectos do cenário de ataques. Algumas análises sugerem que a competição de segurança está mudando de “quem consegue detectar e responder mais rápido às vulnerabilidades” para “quem consegue controlar e explorar melhor a IA”.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar