Конечный AI входит в период бурного развития, Jiang Bolong «интегрированное хранение» лидирует в инновациях хранения для AI ПК/телефонов и носимых устройств

(来源:电子发烧友网Elecfans)

От DeepSeek AI до умных агентов OpenClaw AI, которые в этом году внезапно стали чрезвычайно популярными — рынок AI на устройстве полностью запущен. Если достижения в обучении AI-моделей сформировали HBM как высокоскоростное хранилище с широкой пропускной способностью, то выводы AI-инференса на устройство неизбежно заново определят и устройствоно-ориентированное хранилище в составе AI на устройстве. В этом процессе «интегрированное хранилище» компании Jiangbo Long — ведущего отечественного игрока в области памяти — безусловно является уникальным и выделяющимся явлением.

На недавно прошедшей конференции CFM|MemoryS2026 по флэш-памяти председатель совета директоров и генеральный менеджер Jiangbo Long Цай Хуабо выступил с основным докладом, уделив особое внимание интегрированному хранилищу и изучению AI на устройстве. Два руководителя Jiangbo Long также в ходе мероприятия дали интервью СМИ, подробно разъяснив возможности памяти Jiangbo Long для AI на устройстве; одновременно компания выпустила серию новых продуктов памяти и технические разработки, ориентированные на AI на устройстве, что привлекло к себе повышенное внимание со стороны внешнего сообщества.

В своем выступлении Цай Хуабо отметил, что по мере ускорения внедрения приложений AI-инференса ключевое различие в сервисах хранения между облачным и клиентским (端侧) AI становится более четким благодаря разграничению AI по уровням хранения. При этом облачный AI фокусируется на специализированных сервисах хранения для GPU, а AI на устройстве разворачивается вокруг трех ключевых потребностей: высокопроизводительный объем, SiP-системная интегрированная упаковка и кастомизированные сервисы. Требования к хранилищу при этом по своей сути отличаются от требований к традиционной экосистеме стандартных устройств хранения.

Как и потребительские GPU и AI-специализированные GPU принадлежат к принципиально разным системам, первые опираются на экосистему универсальных чипов, тогда как вторые создаются под полноценные продукты AI-систем. Аналогично, AI на устройстве также нуждается в глубоко интегрированном кастомизированном решении хранения, а не в универсальном стандартном продукте хранения. На основе этой точной привязки Jiangbo Long сосредоточилась на решениях интегрированного хранения для AI на устройстве, точно сопоставляя их с разнообразными сценариями — AI-смартфоны, AI-ассистированное вождение, AI-устройства в носимой категории, AI PC, воплощенные (具身) роботы и т. п. — тем самым закрепляя четкую сценарную ориентацию для инноваций в хранении AI на устройстве и создавая взаимодополняющие преимущества с облачным хранением AI.

Поддержка SPU+iSA: глубокая оптимизация хранения для AI PC, опускание температуры данных на SSD и существенная экономия объема DRAM

Ван Шуинь (Yan Shuyin), вице-президент Jiangbo Long и генеральный менеджер подразделения корпоративного хранения, заявил, что по мере дальнейшего развития технологий AI традиционная модель послойного хранения данных меняется. Раньше данные чаще всего разделяли на холодные и горячие, сейчас все более выраженно проявляются сценарии с данными «теплой» температуры. Чтобы отразить это изменение, Jiangbo Long представила SPU (Storage Processing Unit, модуль обработки хранения), iSA (Intelligence Storage Agent, интеллектуальный агент хранения) и технологию расширенного кэширования HLC, обеспечив интеллектуальную диспетчеризацию, а также разработала их совместно с производителями хост-систем, углубляя оптимизацию совместной работы ПО и «железа».

В отличие от обычных контроллеров SSD, SPU — это специализированный вычислительный модуль, созданный под интеллектуальную архитектуру хранения. Чип изготовлен по передовому техпроцессу 5 нм, максимальная емкость одного диска достигает 128 ТБ. При этом у текущих популярных cSSD максимальная емкость лишь до 8 ТБ, а решения с большим объемом eSSD обходятся дорого. SPU эффективно уравновешивает проблему «объем vs. стоимость», может высокоэффективно заменить HDD и открывает для клиентов новые возможности для изучения сценариев с eSSD, при этом также ожидается заметное снижение совокупной стоимости владения.

SPU обладает двумя ключевыми возможностями: сжатием без потерь в памяти и технологией расширенного кэширования HLC (High Level Cache). Средний коэффициент сжатия сжатия без потерь внутри устройства достигает 2:1; по фактическим измерениям это охватывает множество типов данных, включая текст/код/базы данных и др., существенно экономя емкость и стоимость SSD. Также с помощью HLC-технологии «теплые/холодные» данные опускаются на SSD, сокращая требования к объему DRAM почти на 40%.

На выставочной площадке автор увидел результаты испытаний совместной интеллектуальной настройки Jiangbo Long и AMD для хост-системы-агента на процессоре Ryzen AI Max+ 395. Устройство обеспечивает локальное развертывание модели сверхбольшого размера — 397B. В сценарии сверхдлинного контекста 256K (122B) достаточно 128 ГБ памяти, чтобы работать плавно, тем самым снижая загрузку DRAM почти на 40%. Это дает новаторское практическое решение для эффективного локального развертывания и масштабируемого применения сверхбольших моделей.

Yan Shuyin проанализировал, что KV-кэш для «теплых» данных обычно хранится на локальном SSD. Баланс между емкостью и скоростью доступа является важным направлением хранения для AI на устройстве. На стороне AI PC технология HLC реализует послойную конструкцию за счет SPU: слой производительности формирует специализированную высокоскоростную область кэширования для AI, выполняя выгрузку (offload) для экспертов MoE / «ключ-значение» (key-value), а слой хранения отвечает за операционную систему и универсальное хранение данных. Благодаря чтению/записи с высоким приоритетом и диспетчеризации I/O с низким приоритетом одновременно оптимизируется пользовательский опыт AI и снижается потребность в объеме и стоимости DRAM у конечного устройства. Проще говоря, с помощью HLC-технологии выполняется интеллектуальная диспетчеризация разнородных SSD-дисков: в зависимости от сценария планируется SLC или QLC, обеспечивая более удачный баланс между производительностью и стоимостью.

Конечно, помимо аппаратного уровня — SPU как модуля обработки хранения, Jiangbo Long на уровне ПО формирует iSA как интеллектуального агента хранения; вместе они реализуют замкнутый технологический цикл за счет согласованной работы «железа» и ПО. Как «мозг» SPU, iSA — это интеллектуальный механизм диспетчеризации для AI-инференса на устройстве. Для таких проблем, как огромный размер параметров MoE-моделей, быстрое раздувание KV Cache и влияние задержек I/O на плавность инференса, iSA эффективно решает сложность диспетчеризации хранения для AI на устройстве за счет MoE-выгрузки экспертов, интеллектуального управления KV Cache и алгоритмов интеллектуального предвыборочного чтения (prefetch). В совместном кейсе по интеллектуальной настройке с хост-системой-агентом AMD после установки iSA на хост он может согласованно настраивать работу SSD, повышая общую производительность всей системы для AI на устройстве.

Хранение для AI-смартфонов: кооперация HLC и UFS; сверхкомпактные размеры для выхода в линейки многих ведущих AI-очков

В сфере встраиваемых систем HLC-технология расширенного кэширования и глубокая интеграция с UFS обеспечивают практическую реализацию встраиваемых сценариев AI на устройстве. Согласно результатам испытаний, полученным в ходе совместной разработки Jiangbo Long и Unisoc (紫光展锐), с применением платформы чипов Unisoc: после установки 4 ГБ DDR и применения HLC время отклика на запуск 20 приложений составило всего 851 мс, что близко к уровню штатной конфигурации 6 ГБ/8 ГБ DDR. При этом Jiangbo Long использует продукт UFS 2.2 с контроллером WM7200 по 14-нм техпроцессу: последовательное чтение/запись достигает до 1070 МБ/с и 1000 МБ/с соответственно, а случайное чтение/запись по IOPS — максимум 240K и 210K, что превосходит уровень ведущих в отрасли стандартов. При сохранении плавного пользовательского опыта и ресурса работы устройств Jiangbo Long эффективно снижает требования к объему DRAM конечного устройства и оптимизирует затраты по BOM.

Вице-президент Jiangbo Long и генеральный менеджер подразделения встраиваемого хранения Huang Qiang отметил, что если рассматривать встраиваемые продукты, то в будущем потребность AI на устройстве в хранении будет в основном сосредоточена в трех направлениях: высокопроизводительность и большой объем, SIP-системная интеграция и кастомизированные сервисы.

Линейка носимых продуктов Jiangbo Long как раз следует этому тренду: продукты постоянно обновляются, а прогресс внедрения — быстрый. Сообщается, что как один из немногих производителей памяти в стране, который владеет возможностями проектирования полного цикла системной упаковки, Jiangbo Long может интегрировать в одной упаковке множество видов чипов, включая SoC, eMMC/UFS, LPDDR, WiFi, Bluetooth, NFC и т. д. Представленный сегодня eMMC размером 5,8 мм × 6,3 мм — это наименьший из публично раскрытых в отрасли размеров eMMC-продукт на текущий момент. Благодаря предельно компактной конструкции упаковки Jiangbo Long осуществляет высокую интеграцию флэш-чипов и собственного контроллера. По сравнению с предыдущим поколением Jiangbo Long с ультра-малым размером 7,2*7,2 мм eMMC площадь материнской платы дополнительно сокращена примерно на 30%, высвобождая еще больше ценного пространства для носимых конструкций вроде умных очков и наручных часов.

Другой новейший продукт ePOP5x выполняет вертикальную укладку высокопроизводительного eMMC и LPDDR5x DRAM в рамках одной единственной упаковки. Скорость передачи LPDDR5x — 8533 Мбит/с, а толщина — всего 0,5 мм. Это демонстрирует очередной прорыв в технологии упаковки встраиваемого хранения. Сверхтонкие свойства позволяют продукту идеально встраиваться в торцевую часть дужки сверхлегких AI-очков; при обеспечении высокоскоростного доступа к данным и высокочастотной работы памяти это служит ключевой аппаратной опорой для создания «незаметного ношения» в пользовательском опыте конечного продукта.

По показателям энергопотребления обе эти новинки оснащены поколением собственных eMMC-контроллеров Jiangbo Long — Huili Weixin (慧忆微) нового поколения. Благодаря глубокой оптимизации стратегий чтения/записи и способа управления флэш-пространством, статическое энергопотребление новых продуктов по сравнению с предыдущим поколением существенно снижено примерно на 250%. Это эффективно снимает тревогу пользователей носимых умных устройств «зарядки раз в день», а также закладывает прочный аппаратный фундамент для сценариев постоянного онлайн-режима, таких как круглосуточное AI-голосовое пробуждение и мониторинг здоровья.

На этапе корпусирования и тестирования (封测) компания Yuan Cheng Technology, принадлежащая Jiangbo Long, выступает как производственная база высококлассного корпусирования и тестирования, предоставляя для носимых продуктов хранения полный процесс от упаковки на уровне пластин до тестирования на уровне системы. Yuan Cheng Technology располагает специализированной линией ESAT, настроенной под особенности носимых чипов, которая позволяет выполнять сверхтонкую высокоточную стыковую (叠层) упаковку и производство с гетерогенной укладкой. Это позволяет проводить жесткие испытания надежности в широком температурном диапазоне от -40°C до 125°C. Каждая флэш-память/чип хранения, выходящая с завода, проходит полный цикл валидации электрических параметров, старения, температурных циклов, падений и т. д., чтобы гарантировать долговременную устойчивую работу даже в суровых условиях эксплуатации — на улице, в умных очках, во время занятий спортом и т. п.

Huang Qiang отметил, что у развития встраиваемого хранения Jiangbo Long уже есть пятнадцатилетняя история. На фоне текущего крупного AI-контекста встраиваемое хранение переходит от единственного стандартизированного хранения к системной интеграции. Jiangbo Long через связку «собственный контроллер + алгоритмы прошивки + передовое корпусирование и тестирование» формирует замкнутый контур полного цикла — от определения чипа до поставки готового продукта. Эта модель Foundry для кастомизированной AI-памяти полного цикла — «собственный контроллер + оптимизация прошивки + собственное корпусирование и тестирование» — является ключевой конкурентоспособностью Jiangbo Long, отличающей ее от традиционных производителей хранения. Благодаря ей Jiangbo Long может глубоко синхронизироваться с клиентами уже на этапе определения продукта, выполняя поэтапное проектирование «от пластины до готового изделия» с учетом требований к вычислительной мощности, ограничений по энергопотреблению и конструктивных ограничений конкретной носимой платформы, тем самым развивая «универсальное хранение» в «хранение, заданное сценарием».

Согласно информации, носимое хранение Jiangbo Long уже находится в цепочках поставок у нескольких ведущих производителей AI-очков. Ожидается, что по мере быстрого роста этого бестселлерного типа продуктов оно станет для компании точкой потенциального роста.

Краткое резюме

Будь то AI-смартфоны, AI PC или «коробка для лобстера», кажется, что AI на устройстве находится совсем рядом с нами, но при этом еще не становится полностью «осязаемым». Именно решения уровня системы хранения, которые могут поддерживать локальное выполнение AI-моделей и умных агентов, и являются направлением активных усилий в отрасли. Интегрированное хранение Jiangbo Long благодаря инновационным технологиям и выдающимся показателям производительности продолжит подпитывать волну AI на устройстве.

Огромные объемы новостей, точная аналитика — все в приложении Sina Finance APP

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить