OpenAI, Ant Group, Google, iFLYTEK y otros compilaron conjuntamente un estándar internacional para la seguridad de modelos a gran escala

El 17 de abril, según el informe "Science and Technology Innovation Board Daily", en la 27ª Conferencia de Ciencia y Tecnología de las Naciones Unidas celebrada en Suiza, el Instituto Mundial de Tecnología Digital (WDTA) publicó los "Estándares de prueba de seguridad de aplicaciones de inteligencia artificial generativa" y "Métodos de prueba de seguridad de modelos de lenguaje grande", dos estándares internacionales, que fueron compilados por expertos y académicos de OpenAI, Ant Group, iFLYTEK, Google, Microsoft, NVIDIA, Baidu, Tencent y docenas de otras unidades.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)