Pesquisador da Anthropic demonstra: usando LLM para identificar em massa 500 vulnerabilidades zero-day

robot
Geração de resumo em curso

Headline

Pesquisadores da Anthropic na demonstração [un]prompted 2026: LLM extrai 500 vulnerabilidades zero-day em massa

Summary

Rohan Paul compartilhou o vídeo da palestra de Nicholas Carlini na [un]prompted 2026, intitulada “LLMs de chapéu preto”. Carlini é pesquisador de segurança em IA na Anthropic, e demonstrou como atacantes podem usar grandes modelos de linguagem para localizar e explorar vulnerabilidades de software. O número central: 500 explorações zero-day foram geradas de forma automatizada. Mais preocupante é que, à medida que os LLMs melhoram em pesquisa de vulnerabilidades, o modelo de ameaça está mudando - de “como atacar modelos de IA” para “o que acontece quando a IA começa a atacar outros sistemas”.

Analysis

Isto não é uma simulação teórica, mas uma evidência reproduzível. Carlini documentou LLMs extraindo falhas reais que testes de fuzzing tradicionais e análise estática perderam, incluindo problemas de contorno de autenticação. Ele enfatizou repetidamente a eficiência em seu blog:

  • LLMs não necessariamente criam novos tipos de ataque, mas reduzem significativamente o custo e a barreira de entrada para ataques existentes
  • Ganhos típicos incluem: geração em massa de phishing, reconhecimento automatizado de alvos, encadeamento de exploração scriptada
  • Etapas que antes exigiam capital ou experiência especializada foram “popularizadas” pelo modelo e podem ser escaladas em paralelo

O feedback da comunidade (discussões em conferências e threads do Hacker News) indica que a indústria está levando essa mudança a sério. Há um ponto de vista inverso razoável: a exploração de vulnerabilidades assistida por IA pode ser mais benéfica para a defesa, pois as empresas podem sistematicamente implantá-la em CI/CD e na linha de base de ativos, cobrindo mais áreas e descobrindo mais cedo. Mas Carlini deixa claro que os resultados ainda são incertos - atualmente, ninguém pode concluir se a defesa ou o ataque se beneficiará mais.

A questão inquietante é a dimensão temporal: o que acontecerá se a capacidade continuar a melhorar nos próximos 6-12 meses? O trabalho de Carlini mostra que ainda estamos longe do “teto”.

Visão Geral do Impacto em Ataques e Defesas

Dimensão O que os atacantes ganham O que a defesa ganha
Custo e Velocidade Redução de custos e aceleração, phishing/recognição/exploração em massa Escaneamento abrangente de código e configurações, descoberta mais precoce de falhas
Cobertura Alvos de cauda longa e stacks tecnológicos menos comuns incluídos na superfície de ataque Cobertura mais frequente de ativos e cadeias de suprimento em toda a extensão
Barreiras de Especialização Redução dos requisitos de habilidade, capacidade dos script kiddies elevada Implementação em plataforma, combinando infraestrutura e vantagens de processos
Incerteza Eficácia afetada por dados/alinhamento/interferência de proteção Necessidade de resolver falsos positivos, conformidade e custos de colaboração humano-máquina

Conclusão:

  • Os LLMs estão escalando e sistematizando “ataques conhecidos”, não criando novos paradigmas do nada
  • A batalha de ataque e defesa a curto prazo depende de quem integrar mais rapidamente o modelo na linha de produção (capacidade de dados, computação, avaliação e feedback)

Impact Assessment

  • Importância: Alta
  • Âmbito: Segurança em IA, Pesquisa em IA, Insight Técnico

Avaliação: Estamos em um ponto de inflexão “precoce, mas acelerado”. Os mais favorecidos são as equipes de defesa com capacidade de engenharia e sistematização, fornecedores de segurança, grandes empresas e fundos capazes de alocar capital e recursos para incubar cadeias de ferramentas. Indivíduos que atuam como equipes vermelhas se beneficiarão, mas aqueles que implementarem sistematicamente terão retornos maiores primeiro.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar