Los hackers criminales usaron IA para escribir exploits de día cero funcionales

El Grupo de Inteligencia de Amenazas de Google dijo el domingo que detectó lo que cree que es la primera explotación de día cero creada con ayuda de un modelo de IA.

Un grupo criminal de hackers lo escribió como un script en Python para evadir la autenticación de dos factores (2FA) en una herramienta de administración web de código abierto, según un informe que Google publicó en su Blog de la Nube. La compañía trabajó con el proveedor para detener la explotación masiva antes de que comenzara.

Google vinculó la explotación a la IA a través de patrones de código

Google no culpó a su propio modelo Gemini. Los analistas señalaron patrones estructurales en el código que sugieren fuertemente la participación de IA.

“Basándonos en la estructura y el contenido de estas explotaciones, tenemos una alta confianza en que el actor probablemente utilizó un modelo de IA para apoyar el descubrimiento y la weaponización de esta vulnerabilidad,” escribió Google.

El script en Python tenía docstrings educativos inusualmente detallados, una puntuación de severidad CVSS hallucinated, y un formato típico de salida de modelos de lenguaje grande.

Eso incluye menús de ayuda estructurados y una clase de color limpia escrita en estilo de libro de texto.

Google no ha nombrado al grupo de hackers ni la herramienta específica que fue objetivo.

Hackers respaldados por estados usan modelos de IA para investigación de vulnerabilidades

El informe de Google va más allá del caso de día cero único.

Hackers vinculados a China y Corea del Norte han mostrado un fuerte interés en usar IA para encontrar y aprovechar fallas de software, según el Grupo de Inteligencia de Amenazas de Google.

Un grupo de amenazas chino conocido como UNC2814 ataca objetivos de telecomunicaciones y gubernamentales. El grupo usó una técnica que Google llama jailbreak basado en perfiles.

El grupo instruyó a un modelo de IA para comportarse como un auditor de seguridad senior, y luego lo dirigió a analizar firmware de dispositivos integrados de TP-Link y implementaciones del Protocolo de Transferencia de Archivos Odette en busca de vulnerabilidades de ejecución remota de código.

El grupo solicitó a un modelo de IA que actuara como un auditor de seguridad senior, y luego lo dirigió a buscar en el firmware de dispositivos integrados de TP-Link y en implementaciones del Protocolo de Transferencia de Archivos Odette vulnerabilidades de ejecución remota de código.

Un grupo diferente con vínculos a China utilizó herramientas llamadas Strix y Hexstrike para atacar a una empresa tecnológica japonesa y a una importante compañía de ciberseguridad en Asia Oriental.

Los hackers aprovechan la IA para encontrar y explotar rápidamente vulnerabilidades de día cero. Fuente: Blog de Google Cloud.

El grupo norcoreano APT45 tomó un enfoque diferente. Envió miles de solicitudes repetitivas para analizar recursivamente entradas CVE conocidas y validar exploits de prueba de concepto.

Google dijo que este método produjo “un arsenal más robusto de capacidades de explotación que sería impráctico de gestionar sin ayuda de IA.”

La IA permite nuevas formas de malware y evasión

El informe de Google cubre otras amenazas de IA más allá de la investigación de vulnerabilidades.

Hackers sospechosos de Rusia han utilizado IA para codificar y construir malware polimórfico y redes de ofuscación. Ese malware acelera los ciclos de desarrollo y ayuda a evadir la detección.

Google también advirtió sobre un tipo de malware que llama PROMPTSPY, que describió como un cambio hacia operaciones de ataque autónomas. El malware usa modelos de IA para interpretar estados del sistema y generar comandos dinámicamente para manipular entornos de víctimas. Los atacantes pueden delegar decisiones operativas al propio modelo.

Los actores de amenazas ahora adquieren acceso anónimo de nivel premium a modelos de lenguaje a través de middleware especializado y sistemas automatizados de registro de cuentas. Estos servicios permiten a los hackers sortear restricciones de uso en masa mediante cuentas de prueba para financiar sus actividades.

Un grupo que Google rastrea como TeamPCP, también conocido como UNC6780, ha comenzado a apuntar a dependencias de software de IA como punto de entrada a redes más amplias. Utilizan herramientas de IA comprometidas como punto de apoyo para desplegar ransomware y extorsión.

Google dijo que usa sus propias herramientas de IA con fines defensivos. La compañía mencionó Big Sleep, un agente de IA que identifica vulnerabilidades de software, y CodeMender, que usa el razonamiento de Gemini para parchear automáticamente fallas.

Google también dijo que desactiva cuentas que se detectan malutilizando Gemini con fines maliciosos.

No solo leas noticias de cripto. Entiéndelas. Suscríbete a nuestro boletín. Es gratis.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado