¡Aquí estamos! La primera vulnerabilidad de día cero conocida desarrollada con IA acaba de ser detectada por Google.


Alguien utilizó un modelo de lenguaje grande para detectar un fallo en una herramienta de administración de código abierto.
Luego hizo que el modelo escribiera un script en Python que eludía la autenticación de dos factores en ella.
Luego comenzó a usarlo en objetivos reales.
¿Cómo sabemos que fue IA? Documentación limpia en todas partes.
Una puntuación de severidad CVSS que el modelo literalmente inventó.
Nadie escribe Python tan ordenado a las 3 de la mañana cazando errores.
El fallo en sí era un error lógico, una suposición de confianza que algún desarrollador codificó hace años.
El tipo de error que los modelos de lenguaje grande son buenos para detectar.
Durante años la pregunta fue "¿podría la IA ayudar a los atacantes?"
Mucho escepticismo.
"En teoría."
"Eventualmente."
"Con suficiente apoyo."
Ese debate ya terminó.
La nueva pregunta es qué tan rápido se cierra la ventana entre "la vulnerabilidad existe en alguna parte de tu pila" y "la vulnerabilidad se explota a escala."
Antes solía ser meses.
Ahora son días.
Ver original
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado