Aqui estamos! O primeiro zero-day conhecido desenvolvido com IA acabou de ser descoberto pelo Google.


Alguém usou um modelo de linguagem para detectar uma falha numa ferramenta de administração de código aberto.
Depois fez o modelo escrever um script Python que contorna a autenticação de dois fatores nela.
Depois começou a usá-lo em alvos reais.
Como sabemos que foi IA? Documentação limpa em todos os lugares.
Um score de severidade CVSS que o próprio modelo literalmente inventou.
Ninguém escreve Python assim tão organizado às 3 da manhã caçando bugs.
A falha em si era uma falha lógica, uma suposição de confiança que algum desenvolvedor codificou há anos.
O tipo de erro que os modelos de linguagem são bons em detectar.
Durante anos, a questão era "poderia a IA ajudar atacantes?"
Muitos hesitavam.
"Em teoria."
"Eventualmente."
"Com estrutura suficiente."
Esse debate acabou.
A nova questão é quão rápido a janela se fecha entre "vulnerabilidade existe em algum lugar na sua pilha" e "vulnerabilidade explorada em larga escala."
Antes levava meses.
Agora são dias.
Ver original
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar