Маск стверджує, що Colossus 2 тренує 7 моделей одночасно, із максимальною кількістю 10 трильйонів параметрів Training 7 Models

robot
Генерація анотацій у процесі

Згідно з моніторингом від 1M AI News, Ілон Маск (Elon Musk), засновник SpaceX та xAI, опублікував у X, що суперкомп’ютерний кластер SpaceXAI Colossus 2 наразі одночасно навчає 7 моделей: 1. Imagine V2, наступне покоління моделей для генерації зображень і відео; 2. Два варіанти моделі з 1 трильйоном параметрів; 3. Два варіанти моделі з 1,5 трильйона параметрів; 4. Модель із 6 трильйона параметрів; 5. Модель із 10 трильйона параметрів. Він додав: «Є трохи наздоганяти». Раніше кілька медіа повідомляли, що наступна флагманська модель Grok від xAI має масштаб параметрів приблизно 6 трильйонів, що узгоджується зі значенням 6T, наведеним у списку. Модель із 10 трильйона параметрів раніше публічно не повідомляли. У своєму дописі Маск назвав об’єднану сутність «SpaceXAI». Дві компанії завершили своє злиття в February цього року, а оціночна вартість після злиття становить приблизно $1.25 трильйона. Colossus 2 запустили 17 January, і це перший у світі кластер для навчання ШІ рівня гігават, з планами оновити його до 1.5GW цього місяця.

XAI-1,23%
GROK-0,86%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити