Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
Промоакции
Участвуйте и получайте награды
Реферал
20 USDT
Приглашайте друзей за бонусы
Партнерская программа
Эксклюзивные комиссионные
Gate Booster
Растите влияние и получайте аирдроп
Анонсы
Обновления в реальном времени
Блог Gate
Статьи о криптоиндустрии
VIP-услуги
Огромные скидки на комиссии
Управление активами
Универсальное решение для управления активами
Институциональный
Крипто-решения для бизнеса
Разработчикам (API)
Подключение к экосистеме приложений Gate
Внебиржевые банковские переводы
Ввод и вывод фиатных денег
Брокерская программа
Щедрые механизмы скидок API
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Понимание прибыли и структуры индустрии уровней хранения ИИ за один раз
Искусственное интеллектуальное хранение можно разбить на шесть уровней,
SRAM на кристалле
HBM
Основная память на плате DRAM
Уровень пула CXL
Корпоративные SSD
NAS и облачное объектное хранилище
Этот уровень разделения основан на расположении хранения, чем ниже, тем дальше от вычислительного блока, объем хранения больше.
К 2025 году эти шесть уровней (SRAM на чипе вычислительного ядра, исключая встроенную ценность) займут примерно 229 миллиардов долларов, из которых DRAM — половина, HBM — 15%, SSD — 11%.
Прибыльность, каждый уровень крайне сосредоточен в руках олигополий, у первых трех обычно доля рынка превышает 90%.
Эти прибыльные источники можно разделить на три категории,
Высокомаржинальные олигополии на уровне кремниевых чипов (HBM, встроенный SRAM, QLC SSD)
Высокомаржинальные новые источники на уровне межсоединений (CXL)
Масштабируемые мультипликативные источники на уровне сервисов (NAS, облачное объектное хранилище)
Характеристики этих трех источников различны, темпы роста разные, барьеры входа тоже отличаются.
Почему хранение делится на уровни?
Потому что на чипах CPU, отвечающих за управление, и GPU, отвечающих за вычисления, есть только временные кэши, то есть SRAM на кристалле. Этот кэш очень мал, он может содержать только временные параметры, не вместит большие модели.
За этими двумя чипами требуется внешний большой объем памяти для хранения больших моделей и контекста для вывода.
Движение данных между уровнями хранения происходит быстро, но с задержками и энергопотреблением, что и является основной проблемой.
Поэтому сейчас есть три направления,
Расширение HBM, размещение памяти рядом с GPU, чтобы сократить расстояние перемещения
CXL — объединение памяти в рамках ракада, совместное использование емкости
Интеграция вычислений и хранения на одном кристалле, объединение хранения и вычислений
Эти направления определяют форму каждого уровня прибыли в ближайшие пять лет.
Рассмотрим конкретные уровни,
L0 SRAM на кристалле: прибыльный источник только для TSMC
SRAM (Static Random-access Memory, статическая память с произвольным доступом) — это кэш внутри CPU/GPU, встроенный в каждый чип, не торгуется отдельно.
Рынок отдельной SRAM-микросхемы составляет всего 10–17 миллиардов долларов, лидеры — Infineon (около 15%), Renesas (около 13%), ISSI (около 10%), рынок небольшой.
Эта часть прибыли сосредоточена у TSMC, каждая новая AI-микросхема требует больше SRAM, приходится покупать больше кремниевых пластин.
А более 70% современных технологических пластин в мире — у TSMC. Каждый чип H100, B200, TPU v5 и т. д. — в конечном итоге приносит доход TSMC.
L1 HBM: крупнейший источник прибыли в эпоху AI
HBM (High Bandwidth Memory, память с высокой пропускной способностью) — это вертикально сложенная DRAM с помощью TSV (через-стековые соединения), упакованная через CoWoS и размещенная рядом с GPU.
HBM почти в одиночку определяет, насколько крупной может быть модель, которую ускоритель способен обработать. Рыночная доля SK Hynix, Micron и Samsung — почти 100%.
К первому кварталу 2026 года, по последним данным, доли рынка: SK Hynix — 57–62%, Samsung — 22%, Micron — 21%. SK Hynix получила значительную долю закупок у NVIDIA и других компаний, оставаясь ведущим поставщиком.
В отчете Micron за первый квартал 2026 года говорится, что TAM (общий потенциальный рынок) HBM будет расти со среднегодовым темпом около 40%, с примерно 35 миллиардов долларов в 2025 году до 100 миллиардов в 2028 году, что раньше прогнозировалось на два года.
Ключевое преимущество HBM — очень высокая рентабельность. В первом квартале 2026 года операционная маржа SK Hynix достигла рекордных 72%.
Причины высокой прибыльности,
Производственный процесс TSV уменьшает часть мощности традиционной DRAM, что создает дефицит HBM;
Трудности повышения качества передовых упаковок, что привело к снижению доли Samsung с 40% до 22%;
Основные поставщики осторожно расширяют производство, в первом квартале 2026 года средняя цена продажи (ASP) DRAM выросла более чем на 60% по сравнению с предыдущим кварталом, что подтверждает доминирование продавца.
Из тройки лидеров SK Hynix благодаря сильной поддержке HBM в 2025 году достигла операционной прибыли в 47,21 триллиона вон, впервые превзойдя Samsung Electronics, а в первом квартале 2026 года с маржой 72% даже превзошла TSMC (58,1%) и NVIDIA (65%).
Micron обладает очень высоким потенциалом роста, американский банк BofA в мае 2026 года повысил целевую цену до 950 долларов. Samsung, внедряя HBM4, имеет самый большой потенциал для восстановления доли рынка.
L2 Основная память на плате DRAM
Этот уровень — то, что обычно называют модулями памяти.
Основная память на плате включает DDR5, LPDDR, GDDR, MR-DIMM и другие стандартные виды памяти, сейчас это самая крупная часть рынка AI-хранения, к 2025 году глобальный рынок DRAM достигнет примерно 121,83 миллиарда долларов.
Samsung, SK Hynix и Micron по-прежнему занимают подавляющую часть рынка. По последним данным за четвертый квартал 2025 года, лидер — Samsung с долей 36,6%, затем SK Hynix — 32,9%, Micron — 22,9%.
В настоящее время производство смещается в сторону более прибыльных HBM, что позволяет сохранять высокую прибыль и ценовую власть. Прибыльность обычных модулей DRAM ниже, чем у HBM, но их рынок самый крупный.
L3 Уровень пула CXL
CXL (Compute Express Link) — позволяет объединить DRAM с одной серверной материнской платы в пул, доступный для всего ракада.
После версии 3.x, память в одном шкафу может совместно использоваться несколькими GPU, распределяться по необходимости. Это решает проблему хранения KV-кэша, векторных баз данных и RAG-индексов, которые не помещаются или не могут быть перемещены.
Модуль памяти CXL в 2024 году оценивается в 1,6 миллиарда долларов, к 2033 году — около 23,7 миллиарда. Пока что доминируют Samsung, SK Hynix и Micron.
В этом сегменте Astera Labs занимается ретимингом между CXL и PCIe, а также управлением умной памятью, занимая около 55% рынка. За последний квартал их доход составил 308 миллионов долларов, рост +93%, валовая прибыль по GAAP — 76,4%, чистая прибыль — +85%. Очень высокая прибыльность.
L4 Корпоративные SSD: крупнейшие бенефициары эпохи вывода
Корпоративные NVMe SSD — основное средство для хранения контрольных точек обучения AI, RAG-индексов, offload KV-кэша и весов моделей. QLC SSD уже вытеснили HDD из AI-озер данных.
К 2025 году рынок корпоративных SSD оценивается в около 26,1 миллиарда долларов, CAGR — 24%, к 2030 году — около 76 миллиардов.
Структура рынка, как и прежде, контролируется тремя гигантами.
По данным за четвертый квартал 2025 года, доли рынка: Samsung — 36,9%, SK Hynix (включая Solidigm) — 32,9%, Micron — 14,0%, Kioxia — 11,7%, SanDisk — 4,4%. Пять крупнейших — около 90%.
Самое заметное изменение — взрыв популярности QLC SSD в сценариях AI-вывода. Подразделение SK Hynix, Solidigm, и Kioxia уже выпускают продукты емкостью 122 ТБ на диск, KV-кэш и RAG-индексы для AI-вывода перетекают с HBM на SSD.
С точки зрения прибыли, корпоративные SSD не достигают такой же высокой маржи, как HBM, но получают двойную выгоду от увеличения емкости и расширения вывода.
Kioxia и SK Hynix — более чистые компании, ориентированные на память. Samsung и SK Hynix одновременно используют преимущества HBM, DRAM и NAND, создавая более комплексные платформы для AI-хранения.
L5 NAS и облачное объектное хранилище: мультипликативные источники данных
NAS и облачное объектное хранилище — это внешние уровни для AI-озер данных, тренировочных данных, резервных копий и межкомандного сотрудничества. В 2025 году NAS — около 39,6 миллиарда долларов (CAGR 17%), облачное объектное хранилище — около 9,1 миллиарда долларов (CAGR 16%).
Основные поставщики корпоративных файловых хранилищ — NetApp, Dell, HPE, Huawei; для малого и среднего бизнеса — Synology, QNAP. Объем рынка облачного хранения по доле IaaS: AWS — около 31–32%, Azure — 23–24%, Google Cloud — 11–12%, вместе — около 65–70%.
Прибыль этого уровня обусловлена долгосрочным управлением, выходом данных и экологической привязкой.
Итог:
Объем рынка DRAM самый большой, но маржа самая низкая — 30–40%; объем HBM — всего треть DRAM, но маржа удваивается — более 60%; CXL — самый маленький, но маржа — более 76%. Чем ближе к вычислительному ядру, тем более редкий и прибыльный уровень.
Рост прибыли в основном обеспечивают три направления: HBM (CAGR 28%), корпоративные SSD (CAGR 24%), пула CXL (CAGR 37%).
У каждого уровня есть свои барьеры входа: HBM — технологические (TSV, CoWoS, рост качества), CXL — IP и сертификация, ретимеры — единственный поставщик, сервисы — стоимость переключения.