Avance de Ultraman: El nuevo modelo de seguridad de OpenAI GPT 5.5-Cyber será presentado en unos días, enfrentándose a Claude Mythos

OpenAI anuncia que lanzará un modelo dedicado a la seguridad cibernética GPT-5.5-Cyber, dirigido a expertos en el campo de la seguridad en línea, enfrentándose a las estrictas estrategias de defensa controladas por Anthropic. Ultraman predijo que en 2026 es muy probable que ocurran ataques cibernéticos que sacudan al mundo.

OpenAI GPT-5.5-Cyber será presentado en unos días

El CEO de OpenAI, Ultraman (Sam Altman), anunció hoy (30/4) que en los próximos días lanzarán GPT-5.5-Cyber, una nueva generación de modelos de seguridad en línea, para que los expertos en ciberseguridad puedan usar. Él afirmó que el equipo colaborará con el ecosistema y el gobierno para encontrar formas confiables de acceso que aseguren la seguridad de empresas e infraestructura.

Este abril, Ultraman, en una entrevista con Mike Allen, fundador de Axios, predijo que en 2026 es muy probable que ocurra un ataque cibernético que sacuda al mundo.

El público continúa discutiendo si sus declaraciones reflejan con precisión la situación de amenazas, y recientemente, la compañía Anthropic lanzó el modelo Claude Mythos, capaz de identificar vulnerabilidades de software de forma autónoma, lo que ha intensificado aún más la controversia y ha generado preocupación en el gobierno de EE. UU.

  • Informe relacionado:****¿Claude Mythos amenaza la seguridad financiera? El secretario del Tesoro y el presidente de la Reserva Federal convocan una reunión de emergencia para advertir sobre riesgos

OpenAI planea llevar herramientas de ciberseguridad a todos los niveles gubernamentales

Las diferencias en las políticas de defensa entre OpenAI y Anthropic reflejan un debate más amplio en el campo de la IA.

Según CNN, hasta hace poco, el plan de confianza y acceso en ciberseguridad de OpenAI solo estaba limitado a unos pocos socios, y ahora está abriendo permisos a todos los niveles gubernamentales revisados, desde agencias federales hasta locales, permitiendo que las entidades autorizadas utilicen versiones especiales de modelos con menos restricciones.

Sasha Baker, responsable de políticas de seguridad nacional de OpenAI, señaló que OpenAI no considera que deba ser el único decisor en la determinación de permisos y prioridades máximas.

Diferencias en las estrategias de defensa de los dos gigantes de la IA, democracia versus control estricto

El modelo Mythos de Anthropic tiene la capacidad de identificar y explotar vulnerabilidades de software. Debido a los potenciales peligros, la compañía está promoviendo su uso de manera gradual mediante un plan de control estricto llamado “Glass Wing”, en colaboración con representantes gubernamentales.

En temas de seguridad, Anthropic aboga por un enfoque cauteloso y lento para reducir que hackers utilicen IA en una carrera armamentista, mientras que OpenAI planea una apertura total de sus modelos.

Baker afirmó que la democratización de las capacidades de defensa en línea debe beneficiar a todos, y que solo reservarlo para las 50 principales empresas de Fortune no es suficiente. Ella enfatizó que esto es una oportunidad para que las empresas reparen vulnerabilidades antes de que las herramientas caigan en manos maliciosas.

Fuente de la imagen: Getty Images/ANTHONY WALLACE/AFP Responsable de políticas de seguridad nacional de OpenAI, Sasha Baker

OpenAI trabaja activamente con EE. UU. en un plan de acción para la era de la inteligencia

Recientemente, OpenAI realizó un taller en Washington, donde Baker reveló que los asistentes incluyeron representantes del Pentágono, la Casa Blanca, el Departamento de Seguridad Nacional y la Agencia de Proyectos de Investigación Avanzada de Defensa, quienes probaron las capacidades de seguridad del nuevo modelo, y planean regresar en unas semanas para recopilar retroalimentación.

Además, OpenAI está lanzando un plan de acción para coordinar a gobiernos y empresas en la protección cibernética en la era de la inteligencia. La compañía planea introducir en los próximos días nuevas funciones de seguridad en las cuentas de ChatGPT y ofrecer herramientas para que el público mejore sus hábitos de seguridad en línea.

¿El demonio o el salvador? Las grandes empresas de IA apuestan a la crisis apocalíptica

Sin embargo, muchas compañías de IA advierten con frecuencia sobre posibles crisis apocalípticas, lo que ha generado escepticismo en la academia.

En una entrevista con la BBC, la profesora de ética de la Universidad de Edimburgo, Shannon Vallor, señaló que la estrategia de marketing basada en el miedo de las empresas de IA ya ha sido efectiva, presentando sus productos como la última línea de defensa contra el fin del mundo, sin que esto perjudique o limite su poder. Esto hace que el público crea que solo estas empresas pueden ofrecer protección.

Ella afirmó que la utopía y el apocalipsis son dos caras de la misma moneda: “En cualquier caso, la escala es demasiado grande y está llena de mitos, lo que hace que parezca que los mecanismos de regulación, gobernanza o justicia no puedan hacer mucho.”

Esto lleva a la gente a pensar que lo único que pueden hacer es esperar a ver si estas tecnologías terminan siendo los demonios que acaban con la civilización, o los salvadores que nos brindan una utopía. Incluso el nombre “Mythos” (mito) parece estar diseñado para evocar una reverencia casi religiosa.

Lectura adicional:
¡Se necesitan nuevas políticas en la era de la IA! OpenAI propone 4 grandes iniciativas: semana laboral de 3 días, impuestos a los robots

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado