¡Prueba definitiva de destrucción! El 91% de los Agentes de IA están llenos de vulnerabilidades, 770,000 Agentes fueron hackeados al mismo tiempo — ¿Aún es seguro el $BTC que tienes en tus manos?

Hermano, prepárate. Hoy no hablaré de otra cosa, solo de un asunto que está directamente relacionado con tu bolsillo: tu Agente de IA, esos “asistentes digitales” que te ayudan a comerciar, gestionar correos e incluso automatizar airdrops, podrían estar trabajando para hackers.

Justo ahora, una investigación conjunta de instituciones de élite como Stanford, MIT, Carnegie Mellon y NVIDIA arrojó un informe sobre la mesa, con datos fríos como el hielo: revisaron 847 Agentes de IA en producción y descubrieron que el 91% tiene vulnerabilidades en la cadena de herramientas, y el 94% de los Agentes con memoria aumentada pueden ser “envenenados”—como si echaras detergente en tu agua potable y aún así la bebieras con gusto.

Lo más aterrador es que la investigación reveló 2347 vulnerabilidades previamente desconocidas, de las cuales el 23% fueron calificadas como graves. Esto ya no es solo una simulación de laboratorio. El autor principal del artículo, Owen Sakawa, mencionó directamente un caso real a principios de este año: el incidente OpenClaw/Moltbook.

Vamos, te cuento sobre esta “lección magistral” de cisne negro. OpenClaw es un Agente de IA de código abierto, lanzado en noviembre de 2025, que permite al Agente enviar correos, gestionar agendas, ejecutar comandos en terminal, desplegar código y mantener memoria entre sesiones. Tiene 160,000 estrellas en GitHub, ¡está en auge!

Luego, alguien creó una plataforma social llamada Moltbook, diseñada específicamente para los Agentes de OpenClaw. Tras una difusión viral, más de 770,000 Agentes se registraron allí—¿cómo se registraron? Los usuarios le dicen a su Agente: “Oye, regístrate en Moltbook”, y el Agente simplemente llena el formulario por sí mismo.

¿Y qué pasó? La base de datos de la plataforma tenía una vulnerabilidad: los hackers podían saltarse la autenticación y inyectar comandos directamente en cualquier sesión de Agente. 770,000 Agentes, cada uno con privilegios para acceder a dispositivos del usuario, correos electrónicos y archivos, ¡todos comprometidos!

La empresa de seguridad Astrix Security usó su herramienta propia ClawdHunter para escanear y encontró 42,665 instancias de OpenClaw en la red pública, de las cuales 8 estaban completamente abiertas, sin ninguna autenticación. El equipo de investigación en seguridad de Cisco calificó la situación como: “Desde el punto de vista de capacidades, es revolucionario; desde la seguridad, un completo desastre.”

Kaspersky, en su auditoría de enero de 2026, identificó 512 vulnerabilidades, 8 de ellas graves. El investigador de seguridad Simon Willison resumió el “triángulo mortal”: los Agentes de IA pueden acceder a datos confidenciales, interactuar con contenido no confiable y comunicarse con el exterior. Cuando las tres condiciones se cumplen, se forma un trampolín ideal para los hackers.

El equipo de investigación distingue entre los problemas de seguridad de los Agentes de IA y los grandes modelos de lenguaje (LLM): al evaluar los LLM, preguntan “¿puede el modelo decir contenido inseguro?”; al evaluar los Agentes, preguntan “¿puede el modelo hacer cosas inseguras?”—esto involucra llamadas a herramientas, cambios de estado y ejecución de planes en múltiples pasos.

Por ejemplo, un Agente que tiene permisos para leer archivos y enviar solicitudes HTTP. Cada paso, aislado, parece legal: leer archivos no viola reglas, enviar solicitudes tampoco. Pero combinados, puede robar contraseñas del archivo de configuración y enviarlas al servidor del atacante—todo legal en apariencia, pero con un resultado catastrófico: robo de datos. Esto se llama “problema de seguridad por combinación”.

Las pruebas controladas son aún más inquietantes: la tasa de éxito en ataques de escalada de privilegios en Agentes que usan herramientas alcanza el 95%, y en Agentes con memoria aumentada, el envenenamiento tiene un éxito del 94%. Incluso los sistemas multi-agente más robustos enfrentan un 58% de éxito en ataques de deriva de objetivos.

En pruebas de generación de ataques adaptativos, los ataques generados mediante aprendizaje por refuerzo tienen una tasa de violación del 79%, frente al 63% de los diseñados manualmente, un aumento del 25.4%. Esto indica que las armas de los hackers se están llenando rápidamente, y los equipos humanos de red ya no pueden seguir el ritmo.

El análisis por sector revela que hay 289 despliegues en salud (34.1%), 247 en finanzas (29.2%), 198 en atención al cliente (23.4%) y 113 en generación de código (13.3%). En los seis mapas de ataques, la manipulación de estado lidera con 612 casos, seguida por 573 de deriva de objetivos. El uso indebido de herramientas y llamadas en cadena, aunque en tercer lugar con 489 casos, es el más grave: 198 de estos son clasificados como graves, la mayor proporción en todas las categorías.

Y hay un detalle que te mantendrá despierto: el efecto del envenenamiento de memoria tarda en promedio 3.7 sesiones en manifestarse. Para cuando notas algo raro, el hacker ya puede haber estado usando tu Agente para hacer cosas sucias durante dos semanas.

El equipo de investigación propone una línea base de seguridad mínima: monitoreo obligatorio en tiempo real en todos los Agentes en producción; aprobación manual para operaciones que involucren acceso a datos o comunicación externa; revisión manual cada 20-25 pasos; y cifrado de integridad en la memoria aumentada.

En cuanto a monitoreo, la precisión en acciones específicas alcanza un 94%, la puntuación F1 en secuencias es 0.85 y en estados 0.83. En un período de 30 días con 127 Agentes en producción, el sistema interceptó 4,782 operaciones, con una tasa de falsos positivos del 3.7%, y el 14.6% de las operaciones marcadas resultaron ser ataques reales.

Ten en cuenta que la mayoría de los marcos de “gobernanza de IA” actuales son auditorías post-evento, no restricciones en tiempo real durante la ejecución. La Unión Europea con su “Ley de IA” y NIST en EE. UU. están en camino—la presión por cumplir y los riesgos de seguridad se disparan.

Volviendo a tu bolsillo. Si usas un Agente de IA para trading automático, copiar tareas o gestionar tu billetera, detente y revisa: ¿tu Agente tiene almacenada tu clave privada? ¿ha leído tus registros de transacciones? ¿tiene permisos para enviar datos al exterior?

Gary Marcus lo dijo claramente: “Los agentes autónomos son un completo desastre.” No es una broma, es una conclusión basada en datos.

Los datos no mienten. 847 despliegues, 2,347 vulnerabilidades, 770,000 Agentes comprometidos—esto no es un simulacro. Tus $BTC y $ETH en una billetera fría sin estado están bien por ahora, pero si tu IA y tu red se relacionan, esa será la pieza más delgada de tu cristal.

Evalúa tú mismo.


Sígueme para más análisis y perspectivas en tiempo real del mercado cripto! $BTC $ETH $SOL

#Gate广场五月交易分享 #Bitcoin se estabiliza en los 80,000 dólares #Recuperación del mercado cripto

BTC0,13%
ETH-0,95%
SOL3,3%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado