Análisis: Anthropic y OpenAI revelan consecutivamente vulnerabilidades de seguridad, la seguridad de los modelos de IA genera preocupación

robot
Generación de resúmenes en curso

Noticias de Mars Finance, según informa The Information, Anthropic y OpenAI han experimentado incidentes de seguridad que han generado preocupación en el mercado sobre la seguridad de los propios modelos de IA. Actualmente, Anthropic está investigando una posible accesibilidad no autorizada a su modelo Claude Mythos por parte de usuarios. Casi simultáneamente, se ha reportado que OpenAI también ha abierto accidentalmente varias versiones no lanzadas de modelos en su aplicación Codex. Los expertos señalan que estos incidentes de vulnerabilidad refuerzan la necesidad de evaluar la capacidad de gobernanza de seguridad en las empresas de IA, y reflejan que, en el proceso de rápido desarrollo de la tecnología de IA, el sistema de seguridad aún necesita mejoras. Se considera que, incluso los proveedores de modelos de IA enfocados en capacidades de ciberseguridad enfrentan desafíos de seguridad significativos. A medida que la IA se utiliza cada vez más para defenderse de ataques cibernéticos, la seguridad de la plataforma y el control de acceso también se convierten en riesgos clave.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado