¡El misterioso modelo de IA Mythos se filtra de manera sorprendente! ¿Las organizaciones ilegales ya han desplegado copias, y la línea de defensa de seguridad de Anthropic ha sido superada?

robot
Generación de resúmenes en curso

El gigante de la inteligencia artificial Anthropic sufre una filtración confidencial del modelo de seguridad Mythos, que posee capacidades extremas para detectar automáticamente vulnerabilidades en tiempo real y penetrar sistemas encriptados.

¿Se ha roto la línea de defensa principal? Se filtra el misterioso modelo Mythos de Anthropic

Según la última investigación en profundidad publicada ayer (21/4) por 《TechCrunch》 y 《Bloomberg》, el modelo de ciberseguridad altamente confidencial «Mythos», desarrollado por el gigante de la inteligencia artificial Anthropic, ha sido obtenido y utilizado ilegalmente por una organización no autorizada. Esta herramienta, con el código Mythos, está diseñada específicamente para simulaciones de defensa y ataque en redes extremadamente complejas, con capacidades automáticas para identificar vulnerabilidades en tiempo real y penetrar infraestructuras altamente encriptadas.

¿Se ha vulnerado la línea de defensa? Se filtra el misterioso modelo Mythos de Anthropic

De acuerdo con la investigación profunda publicada ayer (21/4) por 《TechCrunch》 y 《Bloomberg》, el modelo de ciberseguridad ultra confidencial «Mythos», desarrollado por el gigante de la inteligencia artificial Anthropic, ha sido obtenido y utilizado ilegalmente por una organización no autorizada. Esta herramienta, con el código Mythos, está diseñada para simulaciones de defensa y ataque en redes extremadamente complejas, con capacidades automáticas para detectar vulnerabilidades en tiempo real y penetrar infraestructuras encriptadas.

Anthropic ha mantenido una política de acceso muy cerrada a este modelo, limitándolo a contratistas de defensa y agencias gubernamentales clave. Sin embargo, la filtración revela que sus protocolos de seguridad en la nube han tenido fallos importantes. Información indica que la organización no autorizada logró desplegar una copia de Mythos en servidores privados de terceros, lo que significa que la línea de defensa que Anthropic tanto presume ha sido vulnerada. La magnitud de la filtración es considerable, incluyendo documentos técnicos y pesos originales del modelo, valorados en más de 500 millones de dólares, y se sospecha que la fuga está relacionada con una vulnerabilidad en la cadena de suministro, específicamente en alguna API.

Actualmente, esta tecnología está fuera de control, y cualquier grupo con capacidades básicas de desarrollo podría usarla para lanzar ataques automatizados sin precedentes contra sistemas financieros globales o protocolos blockchain, lo que genera una gran ansiedad en las comunidades de ciberseguridad en Silicon Valley y Washington.

Involucramiento de agencias de seguridad nacional: uso de herramientas AI en listas negras

Además, la Agencia de Seguridad Nacional de EE. UU. (NSA) continúa usando Mythos, a pesar de que ha sido incluido en la lista negra interna de seguridad. Esto ha provocado un intenso debate sobre la transparencia y la conformidad de las instituciones gubernamentales. Aunque la Casa Blanca ha enfatizado en varias órdenes ejecutivas la pureza en la cadena de suministro de modelos AI y ha prohibido explícitamente el uso de herramientas con riesgos de seguridad o fuentes desconocidas, la NSA parece depender de la poderosa capacidad de descifrado de Mythos.

Fuentes del sector de inteligencia revelan que, a pesar de saber que el modelo podría haber sido comprometido por terceros, la NSA lo ha integrado en múltiples operaciones de vigilancia y contraataque altamente sensibles. Esta «priorización de la ventaja tecnológica sobre la conformidad» ha puesto al gobierno federal en una posición contradictoria.

El análisis de mercado actual indica que esta conducta arriesgada aumenta el riesgo de que secretos nacionales sean revertidos. Si Mythos fuera implantado con puertas traseras durante su procesamiento, toda la información manejada podría ser transmitida en tiempo real a organizaciones externas. Este potencial riesgo de fuga de datos está siendo revisado por varios comités de supervisión, pero la NSA aún no ha emitido comentarios públicos sobre el despliegue de esta herramienta específica, reiterando solo que sus operaciones cumplen con los intereses de seguridad nacional.

Alerta en la cadena de suministro: la Casa Blanca y el Pentágono investigan la fuga tecnológica

Actualmente, la Casa Blanca y el Pentágono han iniciado una investigación de emergencia interinstitucional sobre la filtración de Mythos, centrada en la vulnerabilidad de la cadena de suministro de software de IA. Este incidente ha expuesto una vulnerabilidad clave en los procesos de desarrollo de IA moderna: incluso si los desarrolladores originales, como Anthropic, mantienen altos estándares de seguridad, una vez que el modelo se entrega a proveedores de servicios subcontratados en múltiples niveles, su control se reduce drásticamente.

El Pentágono está revisando todos sus más de 2,000 contratos tecnológicos relacionados, intentando identificar los puntos específicos por donde Mythos pudo haber llegado a organizaciones no autorizadas. Las primeras evidencias sugieren que el problema podría estar en un nodo de prueba fuera de Norteamérica, donde durante pruebas de rendimiento, no se activaron las restricciones de acceso a nivel de hardware, permitiendo la exportación masiva de pesos del modelo.

En respuesta, el asesor de seguridad nacional de la Casa Blanca ha emitido una advertencia a las empresas privadas con capacidades de investigación en IA, solicitando reforzar la protección física y lógica de los modelos de lenguaje a gran escala (LLM).

Funcionarios del Pentágono afirman que el riesgo de dispersión de modelos de IA es comparable al de la proliferación nuclear, especialmente con herramientas como Mythos, que poseen lógica de ataque autónomo en redes. La entrada de estos modelos en mercados grises podría desencadenar una catástrofe global en ciberseguridad.

El gobierno está considerando implementar un sistema más estricto de «huellas digitales» en los modelos, exigiendo que toda herramienta de IA que supere ciertos límites de capacidad incorpore etiquetas de rastreo irremovibles, para facilitar la trazabilidad en caso de fuga.

Crisis de confianza y impacto en la industria bajo controles estrictos

Esta crisis de filtración de tecnología de Anthropic se está convirtiendo rápidamente en una crisis de confianza para toda la industria de IA. Como empresa que ha promovido durante mucho tiempo la «seguridad en IA» y la «integración tecnológica», Anthropic no ha logrado proteger su herramienta principal, generando fuertes dudas sobre la seguridad de los modelos cerrados.

Expertos en criptomonedas advierten que este incidente tiene profundas implicaciones para el desarrollo de las finanzas descentralizadas (DeFi). Con la introducción de modelos de auditoría automática en contratos inteligentes, si incluso Mythos, con recursos de seguridad de primer nivel, puede ser robado ilegalmente, la transparencia en la lógica de auditoría de código ya estaría comprometida. La comunidad ya pide mayor descentralización del poder computacional y transparencia en los modelos para evitar que un solo actor cause una catástrofe global.

Tras la filtración, la valoración de Anthropic ha experimentado una fuerte volatilidad, reflejando la preocupación de los inversores por su capacidad para gestionar tecnologías de alto riesgo. Este incidente ha llevado a organizaciones internacionales de ciberseguridad a reevaluar las estrategias de «soberanía en IA» y a buscar un equilibrio entre control estricto y innovación tecnológica. En los próximos meses, los estándares de acceso y distribución de herramientas de IA serán sometidos a una revisión legislativa exhaustiva. Este evento demuestra que, en el estado actual de la tecnología, la seguridad absoluta de cualquier activo digital es solo una hipótesis relativa, y afrontar esta incertidumbre será la tendencia principal en la industria de activos digitales y ciberseguridad.

Lecturas complementarias
El juez denuncia la inconstitucionalidad del ejército estadounidense ¡Solicitan retirar la etiqueta de riesgo en la cadena de suministro de Anthropic, antes del 6/4!
Anthropic demanda en los tribunales ¡Acusa al gobierno de Trump de represalias por bloquear Claude, con el apoyo de 37 investigadores de IA!
The Wall Street Journal: Tras la orden de bloqueo de Anthropic por Trump, EE. UU. y Israel siguen confiando en Claude para ataques a Irán
Seguridad nacional vs ética: Anthropic se niega a eliminar las protecciones de seguridad de Claude, enfrentándose al Departamento de Defensa de EE. UU.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado