Samsung выпускает HBM4E и углубляет сотрудничество с NVIDIA, "гонка вычислительной памяти" для ИИ ускоряется

robot
Генерация тезисов в процессе

В условиях постоянного роста спроса на вычислительные мощности ИИ технологии становятся ключевым узким местом, определяющим производительность следующего поколения дата-центров. В понедельник, 16 числа по калифорнийскому времени, на ежегодной конференции разработчиков GTC, организованной компанией Samsung Electronics из Южной Кореи и Nvidia, впервые был публично представлен следующий поколение высокопроизводительных чипов памяти HBM4E, а также продемонстрировано их сотрудничество с Nvidia в области платформ для ИИ-вычислений.

Представленный Samsung HBM4E считается важным этапом в дорожной карте их следующего поколения памяти для ИИ: предполагается, что скорость передачи по одному контакту достигнет 16 Гбит/с, а суммарная пропускная способность — около 4 ТБ/с. Целевая аудитория — будущие ускорители ИИ и сверхмасштабные дата-центры. Общепринятое мнение — этот анонс ознаменовал новый этап в совместном развитии экосистемы ИИ-чипов, где происходит синхронное обновление вычислительных и хранилищных ресурсов, а также усиливает конкуренцию между Samsung и SK Hynix на рынке HBM.

Впервые публично продемонстрирован HBM4E: новые достижения в пропускной способности памяти для ИИ

На этой конференции, посвященной GTC и организованной Nvidia, Samsung впервые показала реальный образец чипа HBM4E, что является седьмым поколением высокопроизводительной памяти HBM. HBM4E позиционируется как обновленная версия HBM4, предназначенная для обеспечения более высокой пропускной способности и меньшей задержки в следующем поколении ускорителей ИИ.

Согласно информации, раскрытой Samsung, HBM4E, по предварительным оценкам, достигнет следующих характеристик:

  • скорость передачи по одному контакту — 16 Гбит/с
  • максимальная пропускная способность одного стека — около 4 ТБ/с
  • предназначена для следующего поколения систем ИИ и высокопроизводительных вычислений

По сравнению с предыдущими моделями HBM, этот уровень производительности значительно повысит пропускную способность данных, необходимую для обучения и инференса моделей ИИ, и считается ключевой инфраструктурой для поддержки триллионных параметров моделей и расширения AI-центров данных.

Технология HBM использует 3D-стековую компоновку, соединяя несколько чипов DRAM вертикально, что значительно увеличивает пропускную способность памяти и снижает энергопотребление. В настоящее время она стала ядром для графических процессоров и ускорителей ИИ.

Риск-менеджмент и отказ от ответственности

Рынок подвержен рискам, инвестиции требуют осторожности. Настоящий материал не является индивидуальной инвестиционной рекомендацией и не учитывает специфические цели, финансовое положение или потребности каждого пользователя. Пользователи должны самостоятельно оценить, соответствуют ли любые мнения, взгляды или выводы, изложенные в статье, их конкретной ситуации. Инвестируя на основании данной информации, ответственность несет сам инвестор.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить