Altman publica las cinco reglas de OpenAI, anticipando que en el futuro podrían limitar las capacidades del modelo por motivos de seguridad

robot
Generación de resúmenes en curso

Noticia de CoinWorld, el CEO de OpenAI, Sam Altman, publicó con firma personal cinco principios operativos de la compañía. Él anticipó en el texto que en el futuro, en ciertos períodos, OpenAI podría restringir el acceso de los usuarios a los modelos por motivos de seguridad, y mencionó que se puede imaginar un período en el que «sea necesario sacrificar parte del poder para obtener mayor resistencia». Altman señaló que las decisiones clave sobre IA deben tomarse mediante procesos democráticos, y no solo por los laboratorios de IA. Defendió las recientes compras masivas de capacidad de cálculo, la construcción de centros de datos globales y la integración vertical, diciendo que el objetivo es reducir los costos de IA para que todos puedan usarla, y que los gobiernos podrían necesitar explorar nuevos modelos económicos para garantizar la distribución de valor. También mencionó un escenario de riesgo específico: que modelos extremadamente potentes puedan reducir la barrera para crear nuevos patógenos, lo que requiere una respuesta a nivel social completo. Altman recordó la vacilación de aquel entonces sobre la publicación de los pesos de GPT-2, diciendo que en retrospectiva fue una preocupación excesiva, pero que impulsó la estrategia de despliegue iterativo que OpenAI ha seguido hasta ahora.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado