Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Понимание прибыли и структуры индустрии уровней хранения ИИ за один раз
null
Автор: Годо Godot
Хранение AI можно разбить на шесть уровней,
Встроенная SRAM
HBM
Основная плата DRAM
CXL пуловочный слой
Корпоративные SSD
NAS и облачное объектное хранилище
Этот уровень разделен по месту расположения хранения, чем ниже — тем дальше от вычислительного блока, тем больше объем хранения.
К 2025 году эти шесть уровней (SRAM на чипе вычислительной мощности, исключая встроенную ценность) составят примерно 229 миллиардов долларов, из которых DRAM занимает половину, HBM — 15%, SSD — 11%.
Прибыльность, каждый уровень очень сосредоточен в руках олигополий, у первых трех обычно доля рынка превышает 90%.
Эти прибыльные пула можно разделить на три категории,
Высокоприбыльные олигополии на уровне чипов (HBM, встроенный SRAM, QLC SSD)
Высокоприбыльные новые пула на уровне межсоединений (CXL)
Масштабируемые пула на уровне сервисов (NAS, облачное объектное хранилище)
Характеристики этих трех пулов различны, темпы роста разные, барьеры входа тоже.
Почему хранение делится на уровни?
Потому что на чипах CPU, отвечающих за управление, и GPU, отвечающих за вычисления, есть только временные кэши — SRAM на чипе. Это пространство очень ограничено, оно может содержать только временные параметры, большие модели туда не поместить.
За этими двумя чипами требуется внешний большой объем памяти для хранения больших моделей и контекста для вывода.
Движение данных между уровнями хранения — очень быстро, задержки и энергозатраты — это главная проблема.
Поэтому сейчас есть три направления,
Расширение HBM, размещение памяти рядом с GPU, сокращение расстояния перемещения
CXL — пуловка памяти на уровне стойки, совместное использование емкости
Совмещение вычислений и хранения на одном кристалле, интеграция хранения и вычислений
Эти три направления определяют форму каждого уровня прибыли в ближайшие пять лет.
Ниже — конкретное разделение по уровням,
L0 Встроенная SRAM: прибыльный пул, принадлежащий TSMC
SRAM (Static Random-access Memory, статическая память с произвольным доступом) — кэш внутри CPU/GPU, встроенный в каждый чип, не торгуется отдельно.
Рынок отдельной SRAM-микросхемы составляет всего 1–1,7 миллиардов долларов, лидеры — Infineon (около 15%), Renesas (около 13%), ISSI (около 10%), рынок мал.
Эта часть прибыли сосредоточена у TSMC, каждая новая AI-микросхема требует больше чипов для SRAM, приходится покупать больше пластин.
При этом более 70% современных технологических пластин в мире — у TSMC. Каждый H100, B200, TPU v5 и т. д. — в конечном итоге превращается в доход TSMC.
L1 HBM: крупнейший пул прибыли в эпоху AI
HBM (High Bandwidth Memory, память с высокой пропускной способностью) — вертикальное стекание DRAM (Dynamic Random-access Memory, динамическая память с произвольным доступом) с помощью TSV (Through-Silicon Via, сквозные сквозные отверстия), затем через CoWoS (Chip on Wafer on Substrate) упаковывается рядом с GPU.
HBM почти в одиночку определяет, насколько крупной может быть модель, которую ускоритель AI способен обрабатывать. Доля SK Hynix, Micron, Samsung — почти 100%.
К первому кварталу 2026 года, по последним данным, рыночная доля: SK Hynix — 57–62%, Samsung — 22%, Micron — 21%. SK Hynix получила значительную часть закупок у NVIDIA и других компаний, оставаясь ведущим поставщиком.
В отчете за первый квартал 2026 года Micron заявил, что TAM (общий потенциальный рынок) HBM будет расти примерно на 40% в год, с около 35 миллиардов долларов в 2025 году до 100 миллиардов в 2028 году, и прогноз сдвинулся на два года вперед.
Ключевое преимущество HBM — очень высокая рентабельность. В первом квартале 2026 года операционная маржа SK Hynix достигла рекордных 72%.
Причины высокой прибыльности,
Производственный процесс TSV уменьшает часть мощности традиционной DRAM, что поддерживает спрос на HBM;
Трудности повышения качества передовых упаковок, снижение доли Samsung с 40% до 22% — тоже связано с этим;
Основные поставщики осторожно расширяют производство, в первом квартале 2026 года средняя цена на DRAM выросла более чем на 60% по сравнению с предыдущим кварталом, что подтверждает доминирование продавцов.
Из тройки лидеров SK Hynix получает сильное ускорение благодаря HBM, за 2025 год операционная прибыль достигла 47,21 трлн вон, впервые превзойдя Samsung Electronics, а в первом квартале 2026 года при марже 72% даже превзошла TSMC (58,1%) и NVIDIA (65%).
Micron показывает очень высокие ожидания роста, Bank of America в мае 2026 года повысил целевую цену до 950 долларов. Samsung, внедряя HBM4, имеет самый большой потенциал для восстановления доли рынка.
L2 Основная плата DRAM
Это тот уровень, о котором обычно говорят как о модулях памяти.
Основная плата DRAM включает DDR5, LPDDR, GDDR, MR-DIMM и другие стандартные виды памяти, сейчас это самая продаваемая часть AI-хранилищ, к 2025 году глобальный рынок DRAM достигнет примерно 121,83 миллиарда долларов.
Samsung, SK Hynix и Micron по-прежнему занимают большую часть рынка. По последним данным за четвертый квартал 2025 года, лидер — Samsung с 36,6%, затем SK Hynix — 32,9%, Micron — 22,9%.
В настоящее время производство переключается на более прибыльный HBM, что позволяет сохранять высокую прибыльность и ценовую власть. Прибыльность отдельных продуктов обычных модулей ниже, чем у HBM, но их рынок самый крупный.
L3 CXL пуловочный слой
CXL (Compute Express Link) — позволяет пуловить DRAM с одного сервера на весь стойку.
После версии 3.x, память в одном шкафу может совместно использоваться несколькими GPU, распределяться по необходимости. Решает проблему хранения KV-кэша, векторных баз данных, RAG-индексов, которые не помещаются или не могут быть перемещены.
Модуль памяти CXL в 2024 году оценивается в 1,6 миллиарда долларов, к 2033 году — 23,7 миллиарда. Пока что доминируют Samsung, SK Hynix, Micron.
В этом сегменте Astera Labs занимается ретимингом между CXL и PCIe, а также умными контроллерами памяти, занимает около 55% рынка. За последний квартал доход составил 308 миллионов долларов, рост +93%, валовая прибыльность по GAAP — 76,4%, чистая прибыль выросла на 85%. Очень высокая прибыльность.
L4 Корпоративные SSD: крупнейший бенефициар эпохи вывода
Корпоративные NVMe SSD — основное средство для AI-тренировок, контрольных точек, RAG-индексов, offload KV-кэша, хранения весов моделей. QLC SSD уже полностью вытеснили HDD из AI-озер данных.
К 2025 году рынок корпоративных SSD оценивается в 26,1 миллиарда долларов, CAGR — 24%, к 2030 году — 76 миллиардов.
Структура рынка, как и прежде, — три гиганта.
По данным за четвертый квартал 2025 года, доли рынка: Samsung — 36,9%, SK Hynix (включая Solidigm) — 32,9%, Micron — 14%, Kioxia — 11,7%, SanDisk — 4,4%. Пять крупнейших — около 90%.
Самое заметное изменение — взрывной рост QLC SSD в сценариях AI-вывода. Подразделение SK Hynix Solidigm и Kioxia уже выпускают продукты емкостью 122 ТБ на диск, KV-кэш и RAG-индексы для AI-вывода перетекают с HBM на SSD.
Что касается прибыли, корпоративные SSD не достигают такой же высокой маржи, как HBM, но получают двойные выгоды от увеличения емкости и расширения вывода.
Kioxia и SK Hynix — более чистые компании, ориентированные на память. Samsung и SK Hynix — получают выгоды сразу от трех уровней: HBM, DRAM и NAND, что делает их более универсальными платформами для AI-хранения.
L5 NAS и облачное объектное хранилище: пула сложных данных
NAS и облачное объектное хранилище — внешние уровни для AI-озер данных, тренировочных данных, резервных копий, межкомандного взаимодействия. В 2025 году NAS — около 39,6 миллиардов долларов (CAGR — 17%), облачное объектное хранилище — около 9,1 миллиарда (CAGR — 16%).
Основные поставщики корпоративных файловых систем — NetApp, Dell, HPE, Huawei; для малого и среднего бизнеса — Synology, QNAP. Объем рынка облачного хранения по доле IaaS: AWS — около 31–32%, Azure — 23–24%, Google Cloud — 11–12%, вместе — около 65–70%.
Эта часть прибыли — долгосрочное обслуживание, выход данных в сеть и экологическая привязка.
Итог:
DRAM — самый крупный сегмент, но с самой низкой маржой — 30–40%; HBM — треть по объему, но с удвоенной маржой — 60%+; CXL — самый маленький сегмент, с самой высокой маржой — 76%+. Чем ближе к вычислительному ядру, тем редче и прибыльнее.
Рост прибыли в основном обеспечивают три направления: HBM (CAGR 28%), корпоративные SSD (CAGR 24%), CXL-пулы (CAGR 37%).
У каждого уровня свои барьеры входа: HBM — технологические (TSV, CoWoS, улучшение качества), CXL — IP и сертификация, ретиминг — единственный поставщик, сервисы — переключение затрат.