Anthropic desarrolló el modelo de IA más potente de la historia, pero no se atreve a lanzarlo…

robot
Generación de resúmenes en curso

原创 | Odaily Informe diario del Planet(@OdailyChina

作者|Azuma(@azuma_eth

El 8 de abril, la empresa de desarrollo de IA detrás de Claude, Anthropic, anunció oficialmente que lanzará un nuevo plan llamado “Project Glasswing”, que se implementará conjuntamente con varias de las principales empresas de la industria, como Amazon, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Linux Foundation, Microsoft, Nvidia y Palo Alto Networks.

Anthropic señaló que se trata de una medida urgente destinada a proteger el software más crítico a nivel mundial, y que todas las partes utilizarán conjuntamente una versión de Mythos Preview para descubrir y corregir posibles fallos en los sistemas que el mundo utiliza para subsistir actualmente.

Lo que se entiende por Mythos es la próxima generación de modelos de IA que Anthropic está desarrollando; es el primer modelo en la historia de la humanidad que supera el nivel de los cien mil millones de parámetros, en términos de cantidad total de parámetros (en comparación, los modelos dominantes actuales del mercado tienen entre unos miles de millones y hasta el orden del billón de parámetros), y los costos de entrenamiento alcanzaron una cifra asombrosa de 10 mil millones de dólares. En comparación con Opus 4.6, el modelo más potente de Claude en la actualidad, Mythos obtiene puntuaciones significativamente más altas en pruebas como codificación de software, razonamiento académico y ciberseguridad.

Los rumores sobre Mythos ya circulaban la semana pasada en el mercado. En ese momento, la preocupación general del mercado era: — ¿Tendrá Mythos, que cuenta con capacidades especializadas en ciberseguridad, un impacto en el equilibrio actual entre defensa y ataque en materia de seguridad? Si se aprovecha de manera maliciosa, ¿provocará incidentes de seguridad a mayor escala? Odaily también informó sobre este tema en ese momento, y dialogó con expertos de seguridad de la industria y con el fundador de SlowMist, Yu Xuan (余弦), sobre el posible impacto de la seguridad ofensiva y defensiva en la industria de las criptomonedas (véase 《Entrevista exclusiva de Odaily a Yu Xuan (余弦): Filtración de un nuevo modelo de nivel “bomba nuclear” de Anthropic, ¿cómo afecta a la seguridad ofensiva y defensiva de las criptomonedas?》). Sin embargo, en aquel entonces, Anthropic no había reconocido públicamente la existencia de Mythos, por lo que la información pertinente seguía siendo limitada.

El 8 de abril, con el anuncio del plan “Project Glasswing”, Anthropic también divulgó más detalles sobre Mythos. Según los casos de prueba publicados por Anthropic, la capacidad de Mythos no se está exagerando; tanto es así que la empresa incluso no se atreve a publicar directamente el modelo para evitar que sea utilizado con malicia por grupos de hackers. En cambio, planea hacer que las principales empresas lo prueben y lo analicen mediante el plan “Project Glasswing” para reparar con anticipación posibles vulnerabilidades.

Mythos muestra músculo: en pocas semanas, saca a la luz miles de “vulnerabilidades de día cero”

Al hablar de la fortaleza de Mythos, Anthropic afirmó directamente que el nacimiento del modelo implica que ya ha llegado un hecho severo: — la capacidad de codificación de los modelos de IA ha alcanzado niveles muy altos, y al identificar y explotar fallos de software, pueden prácticamente superar a todos, excepto a las personas humanas más expertas.

De acuerdo con la divulgación de Anthropic, en apenas unas pocas semanas, Anthropic utilizó Mythos para identificar miles de vulnerabilidades de día cero (es decir, fallos que ni siquiera los propios desarrolladores de software habían descubierto antes); muchas de ellas son vulnerabilidades de alto riesgo, y los problemas abarcan todos los sistemas operativos y navegadores más comunes, además de afectar a una serie de otros programas clave.

Anthropic dio varios casos que son bastante representativos:

  • Mythos encontró una vulnerabilidad en OpenBSD que llevaba 27 años presente; este sistema se caracteriza desde hace mucho por su “seguridad extrema” y se utiliza ampliamente en infraestructura crítica como firewalls, y la vulnerabilidad permite que un atacante haga caer el sistema remotamente y de forma directa;
  • En la librería de procesamiento de video FFmpeg, que es usada por gran cantidad de software, Mythos halló una vulnerabilidad que llevaba 16 años; el código donde estaba el problema había sido activado mediante pruebas automatizadas más de 5 millones de veces, pero aun así no se había detectado;
  • Mythos también puede encadenar automáticamente múltiples vulnerabilidades en el kernel de Linux, elevando permisos de un usuario normal hasta lograr el control total del servidor.

Lo más preocupante es que Anthropic afirma que, en su mayoría, estas vulnerabilidades fueron “descubiertas y construidas por cuenta propia rutas de explotación” por Mythos casi sin intervención humana. Esto quizá signifique que la IA ya ha empezado a contar con capacidades automatizadas de ataque y defensa similares a las de los equipos de hackers de élite.

En los puntos de referencia de evaluación, Mythos también muestra una evolución con una brecha a nivel de “salto” frente a Opus 4.6. Por ejemplo, en pruebas de reproducción de vulnerabilidades de ciberseguridad, Mythos alcanza el 83.1%, mientras que Opus 4.6 es del 66.6%; y en múltiples pruebas de codificación y razonamiento, la puntuación de Mythos también logra una ventaja significativa.

Tal vez precisamente por la fuerza demasiado poderosa de Mythos, Anthropic no eligió abrir el modelo de manera directa, sino que primero lanzó el plan “Project Glasswing” para que todo Internet se “refuerce” con anticipación.

A través de este plan, Anthropic abrirá de forma anticipada a los participantes una versión de Mythos Preview, para descubrir y corregir vulnerabilidades o debilidades en sus sistemas base, con un enfoque especial en tareas como la detección de vulnerabilidades locales, pruebas de caja negra de binarios, el endurecimiento de la seguridad de terminales y las pruebas de intrusión del sistema.

Anthropic también se compromete a proporcionar a los participantes un total de 100 millones de dólares en créditos de uso del modelo, para apoyar el uso durante toda la fase de investigación y vista previa. Después, la versión Mythos Preview se abrirá a los participantes a un precio de 25 dólares / 125 dólares por cada millón de tokens de entrada / salida, respectivamente (los participantes también pueden acceder a este modelo mediante la Claude API, Amazon Bedrock, Google Cloud Vertex AI y Microsoft Foundry). Además de los créditos de uso del modelo, Anthropic también donará 2.5 millones de dólares a Alpha-Omega y OpenSSF a través de la Linux Foundation, y donará 1.5 millones de dólares a la Apache Software Foundation, con el fin de ayudar a los mantenedores de software de código abierto a hacer frente a un entorno de seguridad que cambia constantemente.

Anthropic planea ampliar gradualmente el alcance de participación en “Project Glasswing” y continuar impulsándolo durante varios meses, compartiendo experiencias en la mayor medida posible para que otras organizaciones puedan aplicar experiencias relacionadas a su propia construcción de seguridad. En un plazo de 90 días, Anthropic publicará un informe de resultados por etapas, incluyendo las vulnerabilidades ya corregidas y las medidas de mejora de seguridad que se puedan divulgar.

La tecnología solo seguirá mejorando, pero tampoco hay que preocuparse demasiado

La IA está cambiando de manera irreversible el mundo que conocemos, incluido el ámbito de ciberseguridad al que se enfoca este artículo. A medida que disminuyen drásticamente los umbrales para descubrir y explotar vulnerabilidades, es natural que las personas se preocupen: ¿la IA se convertirá en una hoja en manos de actores maliciosos, y amenazará el equilibrio actual de la ciberseguridad? (PS: para los usuarios de criptomonedas que necesiten colocar dinero real en sistemas de billetera o en protocolos en cadena, esta preocupación será especialmente intensa.)

Con respecto a esta cuestión, Anthropic considera que “todavía hay razones para mantener el optimismo”. La razón por la que los modelos de IA son peligrosos es que poseen la capacidad de causar daños a manos de personas sin escrúpulos; pero al mismo tiempo, la IA también tiene un valor incalculable para descubrir y corregir fallos importantes de software, y para desarrollar software nuevo más seguro.

Es previsible que, en los próximos años, las capacidades de la IA sigan evolucionando rápidamente. Pero cuando surjan nuevos métodos de ataque, también emergerán mecanismos de defensa nuevos de manera simultánea. La mejora tecnológica es inevitable, pero eso no significa que el riesgo necesariamente se salga de control: mientras el sistema de defensa evolucione al mismo ritmo, e incluso pueda apoyarse en la IA para crear un foso defensivo de seguridad de mayor fortaleza.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado