Зрозуміти за один раз: прибуткові шари зберігання AI та структура галузі

нуль

Автор: ГодоGodot

Магазин AI можна розділити на шість рівнів,

  1. SRAM на кристалі

  2. HBM

  3. Основна плата DRAM

  4. CXL пулінг рівень

  5. Корпоративні SSD

  6. NAS та хмарне об’єктне зберігання

Цей рівень розподілений за місцем розташування зберігання, чим глибше вниз, тим далі від обчислювального елемента, і тим більше обсяг зберігання.

До 2025 року ці шість рівнів (SRAM на чипі обчислювальної частини, без врахування вбудованої цінності) мають загальний обсяг близько 229 мільярдів доларів США, з яких DRAM займає половину, HBM — 15%, SSD — 11%.

Щодо прибутковості, кожен рівень дуже концентрований у руках олігополій, перші три мають загальну частку понад 90%.

Ці прибуткові пулі можна поділити на три категорії,

  1. Високий валовий прибуток на рівні кремнієвих чипів (HBM, вбудований SRAM, QLC SSD)

  2. Високий валовий прибуток на рівні інтерконекту (CXL)

  3. Масштабований складний пул на рівні сервісів (NAS, хмарне об’єктне зберігання)

Ці три пулі мають різний характер, темпи зростання та захисні бар’єри.

Чому зберігання розподіляється на рівні?

Тому що на чипах CPU, що відповідають за керування, і GPU, що відповідають за обчислення, є лише тимчасові кеші — SRAM на кристалі. Цей кеш дуже малий і може зберігати лише тимчасові параметри, не підходить для великих моделей.

За цими двома чипами потрібно зовнішнє більшого обсягу пам’яті для зберігання великих моделей та контексту для виведення.

Це дуже швидко, і переміщення даних між різними рівнями зберігання викликає затримки та енергоспоживання, що є найбільшою проблемою.

Тому наразі існує три напрямки,

  1. Масив HBM, щоб розмістити пам’ять поруч із GPU, скорочуючи шлях переміщення

  2. CXL — пулінг пам’яті на рівні стійки, спільне використання обсягу

  3. Обчислення та зберігання на одній кремнієвій пластині, інтеграція обчислень і зберігання

Ці три напрямки визначають форму кожного рівня прибуткового пулу на найближчі п’ять років.

Ось конкретне розподілення,

L0 SRAM на кристалі: прибутковий пул, що належить TSMC

SRAM (Static Random-access Memory, статична пам’ять з довільним доступом) — кеш у CPU/GPU, вбудований у кожен чип, не торгується окремо.

Ринок окремих SRAM-чипів становить лише 10–17 мільярдів доларів, лідери — Infineon (близько 15%), Renesas (близько 13%), ISSI (близько 10%), ринок малий.

Цей прибутковий пул у TSMC, кожна нова AI-мікросхема для більшого вміщення SRAM вимагає купівлі більшої кількості кремнієвих пластин.

А понад 70% сучасних технологічних пластин у світі належать TSMC. Кожен H100, B200, TPU v5 тощо — це в кінцевому підсумку дохід TSMC.

L1 HBM: найбільший прибутковий пул у епоху AI

HBM (High Bandwidth Memory, високошвидкісна пам’ять з високою пропускною здатністю) — це DRAM, вертикально складена за допомогою технології TSV (через отвори у кремнії), і через CoWoS пакується поруч із GPU.

HBM майже самостійно визначає, наскільки великими можуть бути моделі для AI-ускорювачів. SK Hynix, Micron, Samsung — майже 100% частки ринку.

Станом на перший квартал 2026 року, найновіша структура ринкових часток: SK Hynix — 57–62%, Samsung — 22%, Micron — 21%. SK Hynix отримала значну частку закупівель у NVIDIA та інших компаній і є провідним постачальником.

Згідно з фінансовим звітом Micron за перший квартал 2026 року, TAM (загальний потенційний ринок) HBM зросте приблизно на 40% у середньорічних темпах, з близько 35 мільярдів доларів у 2025 до 100 мільярдів у 2028, і цей прогноз виявився раніше за попередні оцінки на два роки.

Головна перевага HBM — дуже високий рівень прибутковості. У першому кварталі 2026 року операційна маржа SK Hynix сягнула рекордних 72%.

Причини високої прибутковості:

  1. Технологія TSV зменшує виробництво традиційної DRAM, що підтримує попит на HBM;

  2. Важкість підвищення рівня якості пакування, і зменшення частки Samsung з 40% до 22% — також через це;

  3. Основні постачальники обережно розширюють виробництво і у першому кварталі 2026 року досягли середньої ціни ASP на DRAM, що зросла більш ніж на 60%, що підтверджує їх домінуючу позицію на ринку.

З трійки гігантів SK Hynix отримує сильний імпульс від HBM, і у 2025 році їхній річний операційний прибуток сягне 47,21 трильйонів вон, вперше перевищивши Samsung Electronics. У першому кварталі 2026 року їхня операційна маржа склала 72%, навіть перевищуючи TSMC (58.1%) і NVIDIA (65%).

Micron має дуже високі очікування зростання, і у травні 2026 року Bank of America підвищила цільову ціну до 950 доларів. Зі зростанням виробництва HBM4 Samsung має найбільший потенціал для відновлення частки ринку.

L2 Основна плата DRAM

Цей рівень — те, що зазвичай називають модулем пам’яті.

Основна плата DRAM включає DDR5, LPDDR, GDDR, MR-DIMM та інші стандартні модулі пам’яті, і наразі є найбільшим сегментом у ринку AI-зберігання, загальний обсяг світового ринку DRAM у 2025 році склав близько 121,83 мільярдів доларів.

Samsung, SK Hynix і Micron досі домінують на ринку. За даними четвертого кварталу 2025 року, Samsung має 36.6% частки, SK Hynix — 32.9%, Micron — 22.9%.

Зараз виробництво зосереджено на більш високорентабельних HBM, що зберігає високий прибуток і цінову політику. Прибутковість стандартних модулів DRAM нижча, але їхній обсяг ринку найбільший.

L3 CXL пулінг рівень

CXL (Compute Express Link) дозволяє “пулінг” DRAM з однієї серверної материнської плати у весь стійковий кластер.

Після версії CXL 3.x у майбутньому вся пам’ять у серверному шкафу може бути спільно використана кількома GPU, і розподілятися за потребою. Це вирішує проблему з KV-кешем, векторними базами даних і RAG-індексами, які не поміщаються або не можна перемістити.

Обсяг ринку CXL пам’яті у 2024 році — лише 1.6 мільярда доларів, а до 2033 року прогнозується 23.7 мільярда доларів. Здається, домінують Samsung, SK Hynix і Micron.

У цьому сегменті Astera Labs виробляє ретаймери (ретимери) між CXL і PCIe, а також інтелектуальні контролери пам’яті, займаючи близько 55% частки. Останній квартал — дохід 308 мільйонів доларів (+93% у порівнянні з попереднім роком), валова маржа — 76.4%, чистий прибуток — +85%. Це дуже високий рівень прибутковості.

L4 Корпоративні SSD: найбільший вигодонабувач епохи виведення

Корпоративні NVMe SSD — основне місце для тренувань AI, RAG-індексів, offload KV-кешу і зберігання ваг моделей. QLC SSD вже повністю витіснили HDD з AI-даних озер.

У 2025 році ринок корпоративних SSD оцінюється у 26.1 мільярда доларів, CAGR — 24%, і до 2030 року прогнозується 76 мільярдів доларів.

Структура ринку залишається незмінною — три гіганти домінують.

За даними за четвертий квартал 2025 року, частки ринку: Samsung — 36.9%, SK Hynix (включно з Solidigm) — 32.9%, Micron — 14.0%, Kioxia — 11.7%, SanDisk — 4.4%. П’ять компаній разом — близько 90%.

Найбільша зміна — вибуховий ріст QLC SSD у сценаріях AI-виведення. Підрозділ SK Hynix Solidigm і Kioxia вже випускають продукти об’ємом 122 ТБ на один диск, і KV-кеші та RAG-індекси для AI-виведення дедалі більше переміщуються з HBM на SSD.

З точки зору прибутковості, корпоративні SSD не мають такої високої валової маржі, як HBM, але отримують подвійні вигоди від обсягу і розширення сценаріїв виведення.

Kioxia і SK Hynix — більш чисті цілі. Samsung і SK Hynix отримують трирівневі вигоди від HBM, DRAM і NAND, і є більш комплексними платформами для AI-зберігання.

L5 NAS і хмарне об’єктне зберігання: пул складного ефекту

NAS і хмарне об’єктне зберігання — зовнішній рівень для AI-даних, тренувальних даних, архівів і колаборацій між командами. У 2025 році NAS оцінюється у 39.6 мільярдів доларів (CAGR — 17%), хмарне об’єктне зберігання — близько 9.1 мільярда доларів (CAGR — 16%).

Основні постачальники корпоративного файлового зберігання — NetApp, Dell, HPE, Huawei; для малих і середніх підприємств — Synology, QNAP. За оцінками, частка IaaS у хмарному об’єктному зберіганні становить приблизно 65–70% (AWS — 31–32%, Azure — 23–24%, Google Cloud — 11–12%).

Цей рівень отримує прибуток від довгострокового обслуговування, виходу даних і екосистемних замків.

Підсумовуючи,

  1. DRAM — найбільший за обсягом, але з найнижчою валовою маржею — 30–40%; HBM — третина обсягу DRAM, але валова маржа понад 60%; CXL — найменший, але з найвищою маржею понад 76%. Чим ближче до обчислювального ядра, тим рідше і прибутковіше.

  2. Зростання прибуткових пулів переважно з трьох джерел: HBM (CAGR 28%), корпоративні SSD (CAGR 24%), CXL пулінг (CAGR 37%).

  3. У кожному рівні існують різні бар’єри входу: HBM — технологічні (TSV, CoWoS, підвищення якості), CXL — IP і сертифікація, ретаймери — єдине джерело постачання, сервіс — витрати на переключення.

4-9,02%
TSM1,7%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено