OpenAI esta vez está realizando una recompensa por vulnerabilidades de bioseguridad en GPT-5.5, principalmente para que el equipo rojo busque indicios de jailbreak universales que puedan sortear las protecciones. Para temas de IA como $OP , los mensajes son más positivos, y la línea de seguridad y bioseguridad seguirá siendo vigilada. La recompensa es solo 25,000 dólares, lo que realmente vale la pena es que esta acción vuelve a poner los problemas de seguridad en primer plano.


$ENA
OP6,64%
ENA0,91%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado