Elon Musk afirma que Colossus2 está entrenando simultáneamente 7 modelos, con un máximo de 100 billones de parámetros

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, el fundador de SpaceX y xAI, Musk, publicó en X que el supercomputador Colossus 2 de SpaceXAI actualmente está entrenando simultáneamente 7 modelos:

  1. Imagine V2, la próxima generación del modelo de generación de imágenes y videos
  2. Dos variantes de un modelo de 1 billón de parámetros
  3. Dos variantes de un modelo de 1,5 billones de parámetros
  4. Un modelo de 6 billones de parámetros
  5. Un modelo de 10 billones de parámetros

Acompañó el comentario con «todavía hay algunas cosas que hacer para ponerse al día» (Some catching up to do). Anteriormente, varios medios informaron que el próximo modelo insignia de xAI, Grok 5, tiene un tamaño de aproximadamente 6 billones de parámetros, lo cual coincide con el 6T de la lista. No se ha informado públicamente sobre un modelo de 10 billones de parámetros con anterioridad.

En la publicación, Musk usa «SpaceXAI» para referirse a la entidad resultante de la fusión de SpaceX y xAI. Las dos compañías completaron la fusión en febrero de este año; después de la fusión, la valoración es de aproximadamente 1,25 billones de dólares. Colossus 2 se puso en marcha el 17 de enero: es el primer clúster de entrenamiento de IA a escala de gigavatios del mundo y está previsto que este mes se actualice a 1,5GW.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado