Avance de Ultraman: El nuevo modelo de seguridad de OpenAI GPT 5.5-Cyber será presentado en unos días, enfrentándose a Claude Mythos

OpenAI anuncia que lanzará un modelo dedicado a la seguridad cibernética GPT-5.5-Cyber, dirigido a expertos en el campo de la seguridad en línea, enfrentándose a las estrictas estrategias defensivas controladas por Anthropic. Ultraman predijo que en 2026 es muy probable que ocurra un ataque cibernético que sacuda al mundo.

OpenAI GPT-5.5-Cyber será presentado en unos días

El CEO de OpenAI, Ultraman (Sam Altman), anunció hoy (30/4) que en los próximos días lanzarán GPT-5.5-Cyber, una nueva generación de modelos de seguridad en línea, para que los expertos en ciberseguridad puedan usar. Él afirmó que el equipo colaborará con el ecosistema y el gobierno para encontrar formas confiables de acceso que aseguren la seguridad de empresas e infraestructura.

Este abril, Ultraman, en una entrevista con Mike Allen, fundador de Axios, predijo que en 2026 es muy probable que ocurra un ataque cibernético que sacuda al mundo.

El público continúa discutiendo si sus declaraciones reflejan con precisión la amenaza, y recientemente, Anthropic lanzó el modelo Claude Mythos, capaz de identificar vulnerabilidades de software de forma autónoma, lo que ha intensificado la controversia y ha generado preocupación en el gobierno de EE. UU.

  • Informe relacionado:****¿Claude Mythos amenaza la seguridad financiera? El secretario del Tesoro y el presidente de la Reserva Federal convocan una reunión de emergencia para advertir sobre riesgos

OpenAI planea llevar herramientas de ciberseguridad a todos los niveles gubernamentales

Las diferencias en las políticas defensivas entre OpenAI y Anthropic reflejan un debate más amplio en el campo de la IA.

Según CNN, hasta hace poco, el plan de confianza y acceso en ciberseguridad de OpenAI estaba limitado a unos pocos socios, y ahora está abriendo permisos a todos los niveles gubernamentales revisados, desde agencias federales hasta locales, permitiendo que las entidades autorizadas utilicen versiones especiales de modelos con menos restricciones.

Sasha Baker, responsable de políticas de seguridad nacional en OpenAI, señaló que OpenAI no considera que deba ser el único decisor en la asignación de permisos y prioridades.

Diferencias en las estrategias de defensa de los dos gigantes de la IA, democracia versus control estricto

El modelo Mythos de Anthropic tiene la capacidad de identificar y explotar vulnerabilidades de software, y debido a los potenciales peligros, la compañía lo está promoviendo gradualmente a través de un plan de control estricto llamado “Glass Wing”, en colaboración con representantes gubernamentales.

En cuanto a la seguridad, Anthropic aboga por un enfoque lento y cauteloso para reducir la carrera armamentística impulsada por hackers que utilizan IA, mientras que OpenAI planea una apertura total de sus modelos.

Baker afirmó que la democratización de las capacidades de defensa en línea beneficiará a todos, y que solo reservarlas para las 50 principales empresas de Fortune no es suficiente. Ella enfatizó que esta es una oportunidad para que las empresas reparen vulnerabilidades antes de que las herramientas caigan en manos maliciosas.

Fuente de la imagen: Getty Images/ANTHONY WALLACE/AFP Responsable de políticas de seguridad nacional de OpenAI, Sasha Baker

OpenAI trabaja activamente con EE. UU. en un plan de acción para la era de la inteligencia

Recientemente, OpenAI realizó un taller en Washington, donde Baker reveló que los asistentes incluyeron representantes del Pentágono, la Casa Blanca, el Departamento de Seguridad Nacional y la Agencia de Proyectos de Investigación Avanzada de Defensa, quienes probaron las capacidades de seguridad del nuevo modelo, y planean regresar en unas semanas para recopilar retroalimentación.

Además, OpenAI está lanzando un plan de acción para coordinar la protección cibernética en la era de la inteligencia, en colaboración con el gobierno y las empresas. La compañía planea introducir en los próximos días nuevas funciones de seguridad en las cuentas de ChatGPT y ofrecer herramientas para que el público mejore sus hábitos de seguridad en línea.

¿Maligno o salvador? Las grandes empresas de IA apuestan a la crisis apocalíptica

Sin embargo, muchas compañías de IA advierten con frecuencia sobre posibles crisis apocalípticas, lo que ha generado escepticismo en la academia.

En una entrevista con la BBC, la profesora de ética de la Universidad de Edimburgo, Shannon Vallor, señaló que la estrategia de marketing basada en el miedo de las empresas de IA ya ha sido efectiva, presentando sus productos como la última línea de defensa contra el fin del mundo, sin que esto perjudique o limite su poder. Esto hace que el público crea que solo estas empresas pueden ofrecer protección.

Ella afirmó que la utopía y el apocalipsis son dos caras de la misma moneda: “En cualquier caso, la escala es demasiado grande y está llena de mitos, lo que hace que parezca que los mecanismos de regulación, gobernanza o justicia no puedan hacer mucho.”

Esto lleva a la gente a pensar que lo único que pueden hacer es esperar a ver si estas tecnologías terminan siendo los demonios que acaban con la civilización, o los salvadores que nos brindan una utopía. Incluso el nombre “Mythos” (mito) parece estar diseñado para evocar un sentido de reverencia religiosa.

Lectura adicional:
¡Se necesitan nuevas políticas en la era de la IA! OpenAI propone 4 grandes iniciativas: semana laboral de tres días, impuestos a los robots

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado