Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Хранение внезапно столкнулось с «ударом в голову», но ИИ еще не отпустил руку, хватая товар
(Источник:China Fund News)
«На данном этапе важнее не обсуждать цены, а “зафиксировать” (удерживать) мощности».
Автор: Ню Сыжэ
Одна техническая новость от Google про то, что «использование памяти сократилось до 1/6 прежнего уровня», буквально прошлась холодным потом по всей мировой отрасли хранения данных.
В последнее время Google представила алгоритм TurboQuant сжатия: без ущерба для точности моделей в фазе AI-вывода (inference) потребность в ресурсах для самых затратных по памяти «кэш-полей значений и ключей» («KV Cache») сократилась до 1/6, а скорость вычислений внимания (attention) увеличилась в 8 раз.
Сразу после выхода новости рынок быстро истолковал это как «фактор, который ударит по общей потребности в хранилищах и чипах для хранения данных в контексте AI» — и информация быстро распространилась на финансовые рынки: акции, связанные с чипами хранения данных, дружно пошли вниз.
Одновременно тема «катастрофическое падение цен на модули памяти (RAM)» ворвалась в горячие обсуждения. Когда смешались размягчение цен у каналов, технологические колебания и откаты по сектору, рынок снова начал задавать вопрос: эта волна по рынку хранения данных уже дошла до поворотной точки?
Локальное «размягчение» со стороны каналов
Падение цен на модули памяти, широко обсуждаемое на рынке, в основном происходило в сегменте наличных (spot) продаж в каналах, главным образом — для частных игроков, которым нужна сборка «своими руками».
Сам по себе объем такого рынка ограничен, поэтому он куда более чувствителен к колебаниям цен и потребительским настроениям. Канальным дилерам приходится смотреть на котировки у поставщиков наверху, но также учитывать, поверят ли им пользователи на стороне C — будут ли они покупать.
Один из владельцев магазина, специализирующегося на модулях памяти в Хуацяобэй (Huaqingbei), рассказал журналистам: начиная с прошлой среды на несколько видов продукции с модулями памяти начались скидки по цене. Так, цена 16G памяти снизилась примерно с 900 юаней на прошлой неделе до нынешних примерно 700 юаней; цена 32G памяти также в целом упала примерно на 300 юаней.
Падение цен «как под откос» и обвалы котировок акций действительно создают ощущение, будто «рынок достиг пика». По мнению специалистов отрасли, это больше похоже на кратковременную коррекцию после слишком быстрого роста в канальном рынке, а не на разворот промышленного тренда.
«Из-за того, что вначале цены росли слишком сильно, у канальных клиентов усилилось отторжение высокоценных продуктов хранения данных, и фактические сделки на рынке идут с трудом. Более того, со стороны сегмента spot/наличных торгов продавцы хотят быстрее вернуть оборотные средства и монетизировать прибыль: в сегменте низкопрофильных модулей DDR4 они продают с избытком — это дополнительно бьет по канальному рынку и давит на него», — отметил один из рыночных аналитиков.
А вот если смотреть на контрактный рынок, картина иная. Как сообщил этот источник, в первом квартале текущего года контрактные цены на серверы и PC NAND и DRAM со стороны оригинальных производителей (OEM) росли почти вдвое.
Он также отметил, что на данный момент продукты хранения данных не могут полностью удовлетворить спрос, а проблема дефицита поставок хранения данных в краткосрочной перспективе вряд ли будет решена — поэтому ценовой откат на канальном рынке не изменит логику общего восходящего движения всей отрасли хранения.
«Нет памяти — нет AI»
Практически в одно и то же время, на месте проведения конференции China Flash Memory Market Summit MemoryS 2026 в Шэньчжэне в воздухе витала уже другая атмосфера.
«Все спрашивают: есть ли у вас товар? Причем иногда даже не спрашивают цену — только нужен ли товар», — с горькой улыбкой рассказал журналистам продавец на стенде производителей в сегменте хранения, — «но сейчас мы можем удовлетворить лишь три-четыре десятых спроса. Если же попадаются заказы с слишком большими объемами, приходится отказывать».
Рынок беспокоится о снижении спроса, но на площадке отраслевого форума ощущается, что с поставками по-прежнему все напряженно. В переполненном зале одним из самых горячих вопросов стало: «Как долго еще будет не хватать товара в отрасли хранения данных?»
Генеральный директор Flash Memory Market, Ци Вэй, заявил: «AI — это не просто тренд, это глубокая революция на базовом уровне. Она превращает хранение данных из статьи “стоимости в BOM-таблице” в стратегический ресурс для AI-соревнований; из периодического продукта — в ключевую конкурентоспособность цифровой экономики».
Это не преувеличение.
Независимо от того, речь о тренировке больших моделей, выводе (inference), донастройке (fine-tuning) или о мультимодальных приложениях — в каждом звене пропускная способность и емкость хранения данных доводятся до предела. HBM также из узкоспециализированного элитного продукта за один шаг превратилась в «нефть» эпохи AI; DDR5 большой емкости — из опции в стандартную конфигурацию для AI-серверов; корпоративные SSD — это не просто носители емкости, а ключ к преодолению узких мест по производительности во всей архитектуре вычислительной мощности.
Ци Вэй пояснил: во время вывода (inference) большой модели нужно сохранять результаты Key Value для каждого слоя и для каждого Token, чтобы избежать повторных вычислений и сократить время отклика. Когда контекст расширяется с 4K Tokens до 128K Tokens, потребность в пространстве KV-кэша возрастает многократно; затем добавляется поток запросов высокой конкурентности (high concurrency) — и объем требований быстро разгоняется. На одной только HBM это уже трудно тянуть, и все больше давления начинает переходить на NVMe SSD.
«Именно поэтому спрос на SSD, оптимизированные под AI-нагрузку вывода, растет крайне быстро, а eSSD становится крупнейшим рынком применения для NAND в 2026 году», — считает Ци Вэй.
«Нет памяти — нет AI». Оценка генерального директора Phison/Pen Shuo (群联电子) Пань Цзэнчэна (潘健成) еще прямее. По его мнению, сжатие, которое запустила Google, не означает, что спрос на хранение данных будет линейно “схлопываться”. Наоборот: технология сжатия означает снижение стоимости хоста, рост отгрузок — и это также означает, что пользователи смогут выпускать больше Token, что порождает еще больший спрос на хранение и вызовы (invocations).
Morgan Stanley также полагает, что, сильно снижая стоимость обслуживания одного запроса, TurboQuant позволяет перенести модели, которые раньше могли работать только на дорогих кластерах в облаке, в локальную среду — эффективно снижая порог для массового развертывания AI. Это, возможно, даже дополнительно усилит общий спрос.
Наращивание мощностей — позже, дефицит — не устранить
«Хотя сейчас производители оригинального оборудования по хранению данных (原厂) уже начали увеличивать новые капитальные затраты и расширять мощности, цикл расширения мощностей в отрасли хранения данных длится от 18 до 24 месяцев — а самое раннее новые мощности начнут выпускаться только в 2027 году», — рассказал Ци Вэй журналистам. Он также отметил: проблему дефицита поставок хранения данных в краткосрочной перспективе будет трудно облегчить.
По его словам, в 2026 году в мире не найдется ни одного основного (mainstream) продукта AI-хранения данных, который сможет обеспечить полное равновесие спроса и предложения: фокус отрасли хранения уже сместился с «смотри, кто дешевле» на «смотри, у кого есть товар».
«На данном этапе “зафиксировать мощности” важнее, чем обсуждать цены», — прямо заявил Ци Вэй.
Руководитель компании-пионера в чипах хранения данных (контроллеры) — компании Huilong Technology (慧荣科技) — также отметил: 2026 год еще не является самым темным моментом; разрыв спроса и предложения в 2027 году увеличится, потому что текущий дефицит на фоне роста цен — это не просто циклические колебания. Это структурные изменения, которые ведет AI: ведь объемы данных, которые возникают при AI-тренировке и AI-выводе, создают беспрецедентный спрос на хранение.
С одной стороны — давление, с другой — движение вверх
Так началась более реальная сегментация/разделение.
Для традиционных потребительских рынков вроде мобильных телефонов и ПК рост цен на память прежде всего отражается как давление издержек. Некоторые производители памяти начали двигаться по пути «оптимальной цены и качества», пытаясь, используя меньший объем оперативной памяти, обеспечить более высокое эквивалентное качество пользовательского опыта.
Например, Jiangbo Long (江波龙) пытается продвигать сценарии полного внедрения AI на стороне ПК и во встроенных устройствах через глубокую интеграцию HLC продвинутой технологии кэширования с SPU и UFS. При этом, оптимизируя AI-опыт, компания снижает потребность конечных устройств в объеме DRAM и соответствующие затраты; Phison (群联电子) выпустила Phison Hybrid AI SSD и технологию aiDAPTIV+. По прогнозу, это может сократить использование DRAM более чем на 50%, обеспечивая контролируемую по стоимости и безопасную локальную обработку вывода.
А с другой стороны, все одновременно «идут вверх» — ресурсы и мощности в приоритетном порядке направляются в продукты с высокими технологиями, высокой ценностью и высокими барьерами входа.
Раньше прожекторы AI-отрасли были направлены на «обучение» (training). Пропускная способность кластеров вычислительной мощности впечатляет, но спрос часто бывает этапным. Сейчас центр тяжести отрасли полностью смещается на «вывод» (inference) — это «бездна» с более высокой частотой, более детальной структурой и более тесной связью с реальными коммерческими потоками.
Согласно последним данным Государственного управления данных (国家数据局), в этом году в марте ежедневное среднее число вызовов Token в Китае превысило 140 квадриллионов; за последние почти 2 года рост составил более чем в тысячу раз. По мнению Лян Женьсюня (黄仁勋), агентный (smart-agent) AI может увеличить потребление Token в 1000 раз, тем самым формируя так называемую им «вакуумную зону вычислительных ресурсов».
Ци Вэй прямо заявил: «Мы можем подтвердить одну вещь: кто сможет решить “энергопотребление и задержки при переносе данных в эпоху AI”, тот и определит следующее десятилетие. Хранение данных войдет в суперцикл, который движет AI».
Исполнительный вице-президент Samsung Electronics и руководитель команды разработки платформенных решений Чжан Шивань (张实完) отметил: высокопроизводительное хранение данных больше не является “опционом”, а становится ключевой опорой, определяющей эффективность принятия решений системами и масштаб. Исходя из этого, Samsung продвигает PCIe Gen6 SSD PM1763 и планирует в 2026–2027 годах выпустить накопители более высокой плотности EDSFF, чтобы повысить емкость и пропускную способность на один компьютер.
Руководитель подразделения SSD компании Yangtze Memory (长江存储) Тан Хун (谭弘) упомянул: AI-соревнование перешло от этапа, где важнее было «накопление толщины» (training с большим заделом), к этапу «тонкого выпуска» (inference), где важнее “быть в нужный момент”. Узкие места по пропускной способности хранения данных сейчас серьезно сдерживают высвобождение вычислительных мощностей: доступность GPU-кластеров сейчас оценивается лишь примерно в 50%.
По его мнению, решение задачи — в согласованности вычислений и хранения (compute-storage co-design). На стороне training можно опираться на большой объем QLC eSSD для хранения Checkpoint — это повышает эффективность GPU. На стороне inference — через многоуровневый кэш eSSD принимать и управлять состоянием контекста (KV Cache). Под такие сценарии Yangtze Memory представила несколько новых eSSD корпоративного уровня Gen5.
Для производителей хранения данных подлинный экзамен — не в том, смогут ли они повышать цены, а в том, смогут ли они занять верхний слой — слой с большей ценностью.
От ценовой войны к войне за ценность, от одного продукта к решениям полного стека, от “приложения вычислительной мощности” к “ключевому козырю в победе AI”… В этом соревновании, где правила переписывает AI, розничные цены время от времени “ослабляют гайки” — это лишь рябь на поверхности воды; а в глубине фишки по-прежнему дефицитны и при этом невероятно дорогие.
Редактор:Хуанмэй;Корректор:Ван Юэ;Проверка:Чэнь Сыян
Огромный поток новостей, точный разбор — все в приложении Sina Finance APP