Musk afirma que Colossus 2 está entrenando 7 modelos simultáneamente, con un máximo de 10 billones de parámetros

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, Elon Musk, fundador de SpaceX y xAI, publicó en X que el clúster de supercomputación Colossus 2 de SpaceXAI actualmente está entrenando 7 modelos simultáneamente: 1. Imagine V2, la próxima generación de modelos de generación de imágenes y video; 2. Dos variantes de un modelo de 1 billón de parámetros; 3. Dos variantes de un modelo de 1.5 billones de parámetros; 4. Un modelo de 6 billones de parámetros; 5. Un modelo de 10 billones de parámetros. Añadió: “Hay algo de ponerse al día.” Anteriormente, varios medios informaron que el próximo modelo insignia de xAI, Grok, tiene una escala de parámetros de aproximadamente 6 billones, lo que coincide con el 6T mencionado. El modelo de 10 billones de parámetros no se ha reportado públicamente antes. En su publicación, Musk se refirió a la entidad fusionada como “SpaceXAI.” Las dos empresas completaron su fusión en febrero de este año, con una valoración posterior a la fusión de aproximadamente $1.25 billones. Colossus 2 se lanzó el 17 de enero y es el primer clúster de entrenamiento de IA a nivel de gigavatio del mundo, con planes de actualizarse a 1.5GW este mes.

XAI3,15%
GROK-2,27%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado