Понимание прибыли и структуры индустрии уровней хранения ИИ за один раз

Искусственное интеллектуальное хранение можно разбить на шесть уровней,

  1. SRAM на кристалле

  2. HBM

  3. Основная память на плате DRAM

  4. Уровень пула CXL

  5. Корпоративные SSD

  6. NAS и облачное объектное хранилище

Этот уровень разделения основан на расположении хранения, чем ниже, тем дальше от вычислительного блока, объем хранения больше.

К 2025 году эти шесть уровней (SRAM на чипе вычислительного ядра, исключая встроенную ценность) займут примерно 229 миллиардов долларов, из которых DRAM — половина, HBM — 15%, SSD — 11%.

Прибыльность, каждый уровень крайне сосредоточен в руках олигополий, у первых трех обычно доля рынка превышает 90%.

Эти прибыльные источники можно разделить на три категории,

  1. Высокомаржинальные олигополии на уровне кремниевых чипов (HBM, встроенный SRAM, QLC SSD)

  2. Высокомаржинальные новые источники на уровне межсоединений (CXL)

  3. Масштабируемые мультипликативные источники на уровне сервисов (NAS, облачное объектное хранилище)

Характеристики этих трех источников различны, темпы роста разные, барьеры входа тоже отличаются.

Почему хранение делится на уровни?

Потому что на чипах CPU, отвечающих за управление, и GPU, отвечающих за вычисления, есть только временные кэши, то есть SRAM на кристалле. Этот кэш очень мал, он может содержать только временные параметры, не вместит большие модели.

За этими двумя чипами требуется внешний большой объем памяти для хранения больших моделей и контекста для вывода.

Движение данных между уровнями хранения происходит быстро, но с задержками и энергопотреблением, что и является основной проблемой.

Поэтому сейчас есть три направления,

  1. Расширение HBM, размещение памяти рядом с GPU, чтобы сократить расстояние перемещения

  2. CXL — объединение памяти в рамках ракада, совместное использование емкости

  3. Интеграция вычислений и хранения на одном кристалле, объединение хранения и вычислений

Эти направления определяют форму каждого уровня прибыли в ближайшие пять лет.

Рассмотрим конкретные уровни,

L0 SRAM на кристалле: прибыльный источник только для TSMC

SRAM (Static Random-access Memory, статическая память с произвольным доступом) — это кэш внутри CPU/GPU, встроенный в каждый чип, не торгуется отдельно.

Рынок отдельной SRAM-микросхемы составляет всего 10–17 миллиардов долларов, лидеры — Infineon (около 15%), Renesas (около 13%), ISSI (около 10%), рынок небольшой.

Эта часть прибыли сосредоточена у TSMC, каждая новая AI-микросхема требует больше SRAM, приходится покупать больше кремниевых пластин.

А более 70% современных технологических пластин в мире — у TSMC. Каждый чип H100, B200, TPU v5 и т. д. — в конечном итоге приносит доход TSMC.

L1 HBM: крупнейший источник прибыли в эпоху AI

HBM (High Bandwidth Memory, память с высокой пропускной способностью) — это вертикально сложенная DRAM с помощью TSV (через-стековые соединения), упакованная через CoWoS и размещенная рядом с GPU.

HBM почти в одиночку определяет, насколько крупной может быть модель, которую ускоритель способен обработать. Рыночная доля SK Hynix, Micron и Samsung — почти 100%.

К первому кварталу 2026 года, по последним данным, доли рынка: SK Hynix — 57–62%, Samsung — 22%, Micron — 21%. SK Hynix получила значительную долю закупок у NVIDIA и других компаний, оставаясь ведущим поставщиком.

В отчете Micron за первый квартал 2026 года говорится, что TAM (общий потенциальный рынок) HBM будет расти со среднегодовым темпом около 40%, с примерно 35 миллиардов долларов в 2025 году до 100 миллиардов в 2028 году, что раньше прогнозировалось на два года.

Ключевое преимущество HBM — очень высокая рентабельность. В первом квартале 2026 года операционная маржа SK Hynix достигла рекордных 72%.

Причины высокой прибыльности,

  1. Производственный процесс TSV уменьшает часть мощности традиционной DRAM, что создает дефицит HBM;

  2. Трудности повышения качества передовых упаковок, что привело к снижению доли Samsung с 40% до 22%;

  3. Основные поставщики осторожно расширяют производство, в первом квартале 2026 года средняя цена продажи (ASP) DRAM выросла более чем на 60% по сравнению с предыдущим кварталом, что подтверждает доминирование продавца.

Из тройки лидеров SK Hynix благодаря сильной поддержке HBM в 2025 году достигла операционной прибыли в 47,21 триллиона вон, впервые превзойдя Samsung Electronics, а в первом квартале 2026 года с маржой 72% даже превзошла TSMC (58,1%) и NVIDIA (65%).

Micron обладает очень высоким потенциалом роста, американский банк BofA в мае 2026 года повысил целевую цену до 950 долларов. Samsung, внедряя HBM4, имеет самый большой потенциал для восстановления доли рынка.

L2 Основная память на плате DRAM

Этот уровень — то, что обычно называют модулями памяти.

Основная память на плате включает DDR5, LPDDR, GDDR, MR-DIMM и другие стандартные виды памяти, сейчас это самая крупная часть рынка AI-хранения, к 2025 году глобальный рынок DRAM достигнет примерно 121,83 миллиарда долларов.

Samsung, SK Hynix и Micron по-прежнему занимают подавляющую часть рынка. По последним данным за четвертый квартал 2025 года, лидер — Samsung с долей 36,6%, затем SK Hynix — 32,9%, Micron — 22,9%.

В настоящее время производство смещается в сторону более прибыльных HBM, что позволяет сохранять высокую прибыль и ценовую власть. Прибыльность обычных модулей DRAM ниже, чем у HBM, но их рынок самый крупный.

L3 Уровень пула CXL

CXL (Compute Express Link) — позволяет объединить DRAM с одной серверной материнской платы в пул, доступный для всего ракада.

После версии 3.x, память в одном шкафу может совместно использоваться несколькими GPU, распределяться по необходимости. Это решает проблему хранения KV-кэша, векторных баз данных и RAG-индексов, которые не помещаются или не могут быть перемещены.

Модуль памяти CXL в 2024 году оценивается в 1,6 миллиарда долларов, к 2033 году — около 23,7 миллиарда. Пока что доминируют Samsung, SK Hynix и Micron.

В этом сегменте Astera Labs занимается ретимингом между CXL и PCIe, а также управлением умной памятью, занимая около 55% рынка. За последний квартал их доход составил 308 миллионов долларов, рост +93%, валовая прибыль по GAAP — 76,4%, чистая прибыль — +85%. Очень высокая прибыльность.

L4 Корпоративные SSD: крупнейшие бенефициары эпохи вывода

Корпоративные NVMe SSD — основное средство для хранения контрольных точек обучения AI, RAG-индексов, offload KV-кэша и весов моделей. QLC SSD уже вытеснили HDD из AI-озер данных.

К 2025 году рынок корпоративных SSD оценивается в около 26,1 миллиарда долларов, CAGR — 24%, к 2030 году — около 76 миллиардов.

Структура рынка, как и прежде, контролируется тремя гигантами.

По данным за четвертый квартал 2025 года, доли рынка: Samsung — 36,9%, SK Hynix (включая Solidigm) — 32,9%, Micron — 14,0%, Kioxia — 11,7%, SanDisk — 4,4%. Пять крупнейших — около 90%.

Самое заметное изменение — взрыв популярности QLC SSD в сценариях AI-вывода. Подразделение SK Hynix, Solidigm, и Kioxia уже выпускают продукты емкостью 122 ТБ на диск, KV-кэш и RAG-индексы для AI-вывода перетекают с HBM на SSD.

С точки зрения прибыли, корпоративные SSD не достигают такой же высокой маржи, как HBM, но получают двойную выгоду от увеличения емкости и расширения вывода.

Kioxia и SK Hynix — более чистые компании, ориентированные на память. Samsung и SK Hynix одновременно используют преимущества HBM, DRAM и NAND, создавая более комплексные платформы для AI-хранения.

L5 NAS и облачное объектное хранилище: мультипликативные источники данных

NAS и облачное объектное хранилище — это внешние уровни для AI-озер данных, тренировочных данных, резервных копий и межкомандного сотрудничества. В 2025 году NAS — около 39,6 миллиарда долларов (CAGR 17%), облачное объектное хранилище — около 9,1 миллиарда долларов (CAGR 16%).

Основные поставщики корпоративных файловых хранилищ — NetApp, Dell, HPE, Huawei; для малого и среднего бизнеса — Synology, QNAP. Объем рынка облачного хранения по доле IaaS: AWS — около 31–32%, Azure — 23–24%, Google Cloud — 11–12%, вместе — около 65–70%.

Прибыль этого уровня обусловлена долгосрочным управлением, выходом данных и экологической привязкой.

Итог:

  1. Объем рынка DRAM самый большой, но маржа самая низкая — 30–40%; объем HBM — всего треть DRAM, но маржа удваивается — более 60%; CXL — самый маленький, но маржа — более 76%. Чем ближе к вычислительному ядру, тем более редкий и прибыльный уровень.

  2. Рост прибыли в основном обеспечивают три направления: HBM (CAGR 28%), корпоративные SSD (CAGR 24%), пула CXL (CAGR 37%).

  3. У каждого уровня есть свои барьеры входа: HBM — технологические (TSV, CoWoS, рост качества), CXL — IP и сертификация, ретимеры — единственный поставщик, сервисы — стоимость переключения.

4-8,78%
TSM-2,01%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закреплено