Недавно у меня была возможность глубоко изучить компанию Micron Technology. Честно говоря, я удивлён её слабым присутствием — она скрыта за тенями Nvidia и TSMC, почти не привлекает внимания, но при этом поддерживает фундамент AI-инфраструктуры.



Если вспомнить, в 2012 году, когда японская Elpida обанкротилась, её активы приобрела Micron. Тогда индустрия DRAM-памяти практически исчезла из Японии, а рынок контролировали Samsung и SK Hynix из Южной Кореи. В этом контексте Micron осталась единственной компанией в США, способной массово производить передовые чипы памяти.

Почему так происходит? В условиях быстрого развития AI все говорят только о скорости вычислений. Производительность GPU, TFLOPS, вычислительные мощности. Но на самом деле узкое место совсем в другом — это пропускная способность памяти.

GPU тратит больше времени на ожидание данных после завершения вычислений, чем на сами вычисления. Это называют «стеной памяти». Для запуска модели с 700 миллиардами параметров требуется примерно 140 ГБ памяти в формате FP16. Видеопамять высококлассных GPU-карт, таких как A100 или H100, составляет около 80–192 ГБ. Значит, данные приходится разделять между несколькими картами.

Чтобы решить эту проблему, Nvidia внедрила высокопроизводительную память рядом с GPU — HBM. Это многослойное вертикальное соединение DRAM-кубов, упакованных на силиконовом интерпорере. Micron производит эти HBM.

HBM — это не просто память, а сердце AI-вычислений. В фазе инференса нагрузка на GPU очень низкая, и вся система ограничена пропускной способностью памяти. Энергия, затрачиваемая на передачу данных, в 100–200 раз превышает энергию самих вычислений. Значит, большая часть энергопотребления дата-центров идет на передачу данных по шинам.

Причина, по которой Micron остаётся в тени, — в отсутствии ярких архитектурных инноваций. Nvidia совершенствует дизайн GPU, TSMC — технологию производства логических чипов. А Micron занимается скромной, но фундаментальной работой: развитием технологического процесса в 1 гиганоде, сложной многослойной упаковкой, оптимизацией энергоэффективности.

Производство HBM требует вертикального многослойного соединения DRAM-кубов. Если в одном слое есть дефект, весь модуль становится непригоден. Общий выходной коэффициент для 8-слойных HBM3E — около 61%. Для 12-слойных HBM4 он падает до 48%. Влияние каждого слоя умножается, а не складывается.

SK Hynix занимает более 50% рынка HBM благодаря своей технологии жидкостной капсуляции MR-MUF, которая напрямую повышает качество межслойных соединений. Micron использует процесс TC-NCF, менее эффективный по теплоотводу. Но при этом их HBM потребляет на 20–30% меньше энергии, что выделяет их по энергоэффективности.

Мировой рынок DRAM контролируют три компании: Samsung, SK Hynix и Micron — вместе 95%. Но позиции у них разные. Micron — лидер по скорости технологического прогресса, повышая плотность памяти на пластине и снижая себестоимость на бит.

Samsung сталкивается с проблемами выхода из-за низкого уровня выхода при процессах ниже 14 нм, что замедляет поставки. Скорость технологического развития SK Hynix примерно сопоставима с Micron.

Коэффициент цена/прибыль Micron — 21, что значительно выше 8–10 у традиционных производителей памяти. Это связано с моделью заказного производства HBM. Они заключают долгосрочные контракты с Nvidia и другими клиентами, фиксируя цену и объемы. К 2026 году производственные мощности HBM уже полностью распроданы.

Это значительно снизило циклическую неопределенность рынка памяти. Уолл-стрит оценил это положительно и переориентировал Micron как инфраструктурного поставщика. А геополитический фактор — необходимость США развивать внутреннее производство передовых чипов — ускоряет приток инвестиций.

Следующая битва за HBM — CXL. Compute Express Link — протокол совместного использования памяти между серверами с автоматическим управлением кешем. В гиперскейл дата-центрах 20–30% памяти простаивают. CXL позволяет решить эту проблему за счет пулов памяти.

Micron представила расширительный модуль CXL Type 3. HBM обеспечивает сотни гигабит пропускной способности и низкую задержку, а модули CXL — терабайты объема и гибкое распределение памяти. Совместное использование позволяет перемещать горячие данные в локальный HBM, а холодные — в пул CXL.

Если отвечать на вопрос, что такое HBM, — это не просто память, а необходимый элемент эволюции AI-инфраструктуры. В условиях, когда вычислительная мощность растет быстрее пропускной способности памяти, единственный способ преодолеть этот физический барьер — HBM.

В долгосрочной перспективе полупроводниковая индустрия столкнется с пределами материалов. Плоское миниатюризация приближается к физическим границам, а снижение выхода при 3D-упаковке — экспоненциально возрастает. Внутри памяти тоже есть фундаментальные противоречия: транзисторы DRAM требуют низкого напряжения, а логические чипы — низкого порогового. Эти требования противоречат друг другу.

В итоге конкурентоспособность Micron будет зависеть не от одной технологии, а от комплексных возможностей снижать количество ошибок в различных аспектах: повышение выхода, упаковка, системная интеграция. Для накопления этого опыта нужны десятилетия производства — это и есть истинная «крепость».
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закреплено