¡El misterioso modelo de IA Mythos se filtra de manera sorprendente! ¿Las organizaciones ilegales ya han desplegado copias, y la línea de defensa de seguridad de Anthropic ha sido superada?

robot
Generación de resúmenes en curso

El gigante de la inteligencia artificial Anthropic sufre una filtración confidencial del modelo de seguridad Mythos, que posee capacidades extremas para detectar automáticamente vulnerabilidades en tiempo real y penetrar sistemas cifrados.

¿Se ha roto la línea de defensa principal? Se filtra el misterioso modelo Mythos de Anthropic

Según la última investigación en profundidad publicada ayer (21/4) por 《TechCrunch》 y 《Bloomberg》, el modelo de seguridad cibernética altamente confidencial «Mythos», desarrollado por el gigante de la inteligencia artificial Anthropic, ha sido obtenido y utilizado ilegalmente por una organización no autorizada. Esta herramienta, con el código Mythos, está diseñada específicamente para simulaciones de defensa y ataque en redes extremadamente complejas, con capacidades automáticas para identificar vulnerabilidades en tiempo real y penetrar infraestructuras altamente cifradas.

¿Se ha vulnerado la línea de defensa central? Se filtra el misterioso modelo Mythos de Anthropic

De acuerdo con la investigación profunda publicada ayer (21/4) por 《TechCrunch》 y 《Bloomberg》, el modelo de seguridad de red «Mythos», desarrollado por el gigante de la inteligencia artificial Anthropic, ha sido obtenido y utilizado sin autorización por una organización no autorizada. Esta herramienta, apodada Mythos, está diseñada para simulaciones de defensa y ataque en redes extremadamente complejas, con capacidades automáticas para detectar vulnerabilidades en tiempo real y penetrar infraestructuras cifradas de alto nivel.

La política de acceso de Anthropic a este modelo ha sido siempre muy cerrada, limitada a contratistas de defensa y unidades gubernamentales clave, pero la filtración revela que sus protocolos de seguridad en la nube interna han tenido fallos importantes. Información indica que la organización no autorizada ha desplegado con éxito una copia de Mythos en servidores privados de terceros, lo que significa que la línea de defensa más orgullosa de Anthropic ha sido comprometida. La escala de la filtración es muy amplia, incluyendo documentos técnicos y pesos originales del modelo valorados en más de 500 millones, y se sospecha que la fuga está relacionada con una vulnerabilidad en alguna API de la cadena de suministro.

Actualmente, esta tecnología está fuera de control, y cualquier grupo con capacidades básicas de desarrollo podría usar el modelo para lanzar ataques automatizados sin precedentes contra sistemas financieros globales o protocolos blockchain, lo que genera una gran ansiedad en las comunidades de ciberseguridad en Silicon Valley y Washington.

Involucramiento de la agencia de seguridad nacional: uso de herramientas de IA en listas negras

Además, la Agencia de Seguridad Nacional de EE. UU. (NSA), tras incluir Mythos en su lista negra interna de seguridad, continúa teniendo acceso y permitiendo su uso. Esto ha provocado un intenso debate sobre la transparencia y la conformidad de las agencias gubernamentales. Aunque la Casa Blanca ha enfatizado en varias órdenes ejecutivas la pureza en la cadena de suministro de modelos de IA y ha prohibido explícitamente el uso de herramientas con riesgos de seguridad o fuentes desconocidas, la NSA parece depender de la poderosa capacidad de descifrado de Mythos.

Fuentes del sector de inteligencia revelan que, a pesar de saber que el modelo podría haber sido comprometido por terceros, el departamento técnico de la NSA lo ha integrado en múltiples operaciones de vigilancia y contraataque en redes altamente sensibles. Esta «priorización de la ventaja tecnológica sobre la conformidad» ha puesto al gobierno federal en una posición contradictoria.

El análisis de mercado actual indica que este comportamiento arriesgado de la NSA aumenta el riesgo de que secretos nacionales sean revertidos. Si Mythos se instala con puertas traseras durante su procesamiento, toda la información manejada podría ser transmitida en tiempo real a organizaciones externas. Este potencial riesgo de filtración está siendo revisado por varios comités de supervisión, pero la NSA aún se niega a comentar públicamente sobre la implementación específica del modelo, reiterando que sus operaciones cumplen con los intereses de seguridad nacional.

Alerta en la cadena de suministro: la Casa Blanca y el Pentágono investigan la fuga tecnológica

Actualmente, la Casa Blanca y el Oficina del Pentágono han iniciado una investigación urgente interinstitucional sobre la filtración de Mythos, centrada en la vulnerabilidad creciente de la cadena de suministro de software de IA. Este incidente ha expuesto una vulnerabilidad clave en el proceso de desarrollo de IA moderna: incluso si los desarrolladores originales como Anthropic mantienen altos estándares de seguridad, una vez que el modelo se entrega a proveedores de servicios en múltiples niveles, su control se reduce drásticamente.

El Pentágono está revisando en detalle más de 2,000 contratos relacionados, intentando identificar los puntos específicos por donde Mythos pudo haber llegado a organizaciones no autorizadas. La evidencia preliminar apunta a un nodo de prueba fuera de Norteamérica, donde durante una prueba de rendimiento, no se activaron las restricciones de acceso a nivel de hardware, permitiendo la exportación masiva de los pesos del modelo.

En respuesta, el asesor de seguridad nacional de la Casa Blanca ha emitido una advertencia a todas las empresas privadas con capacidades de investigación y desarrollo en IA, exigiendo reforzar la protección física de los modelos de lenguaje a gran escala (LLM).

Funcionarios del Pentágono han declarado que la dispersión de modelos de IA presenta amenazas similares a las de la proliferación nuclear, especialmente en el caso de Mythos, que cuenta con lógica de ataque autónomo en redes. La entrada de estas herramientas en mercados grises podría desencadenar desastres de ciberseguridad a nivel global.

El gobierno está considerando implementar un sistema más estricto de «huellas digitales» en los modelos, exigiendo que todos los AI que superen ciertos umbrales de capacidad incluyan etiquetas de rastreo ineludibles, para facilitar la trazabilidad en caso de fuga.

Crisis de confianza y impacto en la industria bajo controles estrictos

Esta tormenta de filtración de tecnología de Anthropic se está convirtiendo rápidamente en una crisis de confianza para toda la industria de IA. Como empresa que ha promovido durante mucho tiempo la «seguridad en IA» y la «integración tecnológica», Anthropic no ha logrado mantener su herramienta principal segura, generando fuertes dudas sobre la seguridad de los modelos cerrados.

Expertos en criptomonedas advierten que este incidente tiene profundas implicaciones para el desarrollo de finanzas descentralizadas (DeFi). Con la introducción de modelos de auditoría automática en contratos inteligentes, si incluso Mythos, con recursos de seguridad de primer nivel, puede ser interceptado ilegalmente, la lógica de auditoría de código actual podría haber perdido toda transparencia ante los hackers. La comunidad ya pide mayor descentralización del poder computacional de IA y mayor transparencia en los modelos, para evitar que errores de una sola entidad desencadenen desastres tecnológicos globales.

Tras la noticia, la valoración de Anthropic ha experimentado una volatilidad significativa, reflejando la preocupación de los inversores por su capacidad para gestionar tecnologías de alto riesgo. Este incidente ha llevado a organizaciones internacionales de ciberseguridad a reevaluar las estrategias de «soberanía en IA» y a buscar un nuevo equilibrio entre control estricto y innovación tecnológica. En los próximos meses, los estándares de acceso y distribución de herramientas de IA serán sometidos a una revisión legislativa exhaustiva. Este colapso de mitos demuestra que, en la arquitectura tecnológica actual, la seguridad absoluta de cualquier activo digital es solo una hipótesis relativa, y afrontar esta incertidumbre será la tendencia principal en la industria de activos digitales y ciberseguridad.

Lecturas complementarias
¡Juez denuncia inconstitucionalidad del ejército estadounidense! Exige retirar la etiqueta de riesgo en la cadena de suministro de Anthropic, informe antes del 6/4
¡Anthropic demanda en tribunales! Acusa al gobierno de Trump de represalias por bloquear Claude, con el apoyo de 37 investigadores de IA
Wall Street Journal: Tras la orden de bloqueo de Anthropic por Trump, EE. UU. y Israel continúan confiando en Claude para ataques a Irán
Seguridad nacional vs ética: Anthropic se niega a eliminar las protecciones de seguridad de Claude, enfrentándose al Departamento de Defensa de EE. UU.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado