Google "confirma por primera vez la explotación de vulnerabilidades zero-day generadas por IA"… desarrollo completo de herramientas de ataque en marcha

robot
Generación de resúmenes en curso

El Grupo de Inteligencia de Amenazas de Google (GTIG) anunció que se ha detectado el primer caso confirmado de uso de inteligencia artificial (IA) para crear exploits de “zero-day” realmente operativos. Aunque aún no se han confirmado indicios de daños a gran escala, dado que la IA ya se ha utilizado oficialmente para desarrollar herramientas de ataque, la alerta en la industria de seguridad está aumentando aún más.

Según el informe, un grupo de hackers criminales desarrolló un exploit basado en Python para una vulnerabilidad de “omisión de doble autenticación” en herramientas de gestión de sistemas basadas en web de código abierto ampliamente utilizadas. El análisis muestra que intentaron desplegarlo en campañas de ataque masivas, pero debido a errores en la implementación, el exploit no fue completamente efectivo. Google informó a los proveedores sobre la vulnerabilidad, y ya se ha publicado un parche.

GTIG explica que en el código se pueden detectar múltiples indicios evidentes de intervención de IA. Por ejemplo, se insertaron puntuaciones de severidad que no corresponden con la realidad, formatos de Python excesivamente “didácticos”, menús de ayuda detallados y cadenas de documentación explicativa con fuertes rastros de datos de entrenamiento. Sin embargo, Google aclara que su propio modelo Gemini no fue utilizado en esta operación.

Apuntando a “defectos lógicos semánticos” que los herramientas de seguridad tradicionales no pueden detectar

La vulnerabilidad proviene de un “defecto lógico semántico” más complejo que un simple error de codificación. Los desarrolladores consolidaron en el código la suposición de confiar en ciertos objetos, un error de diseño a nivel superior que se convierte en una superficie de ataque. Este tipo de vulnerabilidades son difíciles de detectar con escáneres de seguridad tradicionales, ya que suelen considerarlas “funciones normales”.

Por el contrario, GTIG explica que los modelos de lenguaje de gran tamaño (LLM) más recientes muestran ventajas en inferir la intención del desarrollador y detectar defectos ocultos en lógicas que parecen correctas superficialmente. Esto significa que la IA ha superado las herramientas de automatización simples y ha entrado en una nueva etapa capaz de comprender el contexto de las revisiones de seguridad.

El analista principal de GTIG, John Hultquist, afirmó: “La idea de que la competencia en vulnerabilidades basada en IA está por comenzar es un malentendido. La realidad es que ya ha comenzado, y si se confirma un zero-day relacionado con IA, probablemente haya muchos más casos no detectados.” Diagnóstico que indica que los actores de amenazas están usando IA para acelerar, ampliar y perfeccionar sus ataques.

China, Corea del Norte y Rusia utilizan IA en todo el proceso de ataque

GTIG considera que este caso no es una excepción, sino parte de una tendencia más amplia. El informe muestra que grupos de hackers respaldados por estados como China, Corea del Norte y Rusia están usando IA en todas las etapas de los ataques: reconocimiento, análisis de vulnerabilidades, desarrollo de malware e incluso operaciones de influencia. Los grupos criminales también emplean estos métodos para crear malware más rápidamente y gestionar operaciones a mayor escala.

Se observó que el grupo de amenazas vinculado a Corea del Norte, “APT45”, utiliza una estrategia: enviar miles de prompts repetidos para realizar análisis recursivos de vulnerabilidades y verificar exploits de prueba de concepto (PoC), interpretado como un intento de construir un activo de ataque difícil de gestionar sin ayuda de IA.

Se afirma que el grupo “UNC2814”, posiblemente vinculado a China, emplea una técnica conocida como “jailbreak” (liberación), que consiste en inducir a la IA en roles de expertos para explotar vulnerabilidades de ejecución remota de código (RCE) en firmwares de routers TP-Link y en el protocolo de transferencia de archivos Odette, mediante ingeniería social.

Otro actor vinculado a China fue detectado usando los frameworks “Hexstrike” y “Strix”, además de un sistema de memoria llamado “Graphiti”, explorando de forma autónoma una empresa tecnológica japonesa y una plataforma de ciberseguridad en Asia Oriental. Se indica que cambian las herramientas de reconocimiento según su razonamiento interno, minimizando la intervención humana.

Propagación en puertas traseras de Android, código falso y clonación de voz

El informe también presenta un troyano para Android llamado “PROMPTSPY”. Este malware, en ejecución, llama a la API de Gemini para interpretar los elementos de la interfaz de usuario en la pantalla del smartphone y genera automáticamente coordenadas táctiles. Esto indica que la IA se está integrando en la automatización de ataques móviles.

Se detectó que las familias de malware relacionadas con Rusia, “CANFAIL” y “LONGSTREAM”, insertan código de señuelo generado por IA para ocultar funciones maliciosas reales. Además, se encontró que los actores rusos, en su operación de influencia “Overload”, usaron clonación de voz basada en IA para crear videos falsos que imitaban a periodistas reales, y los distribuyeron en Ucrania, Francia y EE. UU.

Por otro lado, se señala que el grupo criminal “TeamPCP” fue responsable de la intrusión en marzo en la utilidad de puerta de enlace de IA “LiteLLM”. La investigación reveló que insertaron herramientas de robo de credenciales mediante paquetes contaminados en PyPI y solicitudes de extracción maliciosas, robando claves de AWS y tokens de GitHub, y monetizando mediante ransomware.

Google: “Se han bloqueado cuentas maliciosas y se amplía el uso de herramientas de defensa con IA”

Como medida, Google anunció que bloqueará cuentas maliciosas que abusen de Gemini y ampliará el uso de defensas basadas en IA, como el agente de detección de vulnerabilidades “Big Sleep” y la herramienta de parches “CodeMender”.

El núcleo del informe es que la IA ya no es solo una herramienta auxiliar de laboratorio. Desde crear exploits de zero-day, ocultar código malicioso, automatizar puertas traseras en móviles, hasta difundir información falsa, la IA se ha infiltrado en todos los aspectos del escenario de ataque. Algunos analistas consideran que la competencia en seguridad está cambiando de “quién detecta y responde más rápido” a “quién controla y aprovecha mejor la IA”.

Notas de precaución de TP AI Este resumen fue generado por un modelo de IA basado en TokenPost.ai. Puede omitir contenido importante del original o no reflejar con precisión los hechos.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado