За останні кілька років швидкий ріст індустрії штучного інтелекту привернув увагу до однієї компанії — Micron Technology. Чесно кажучи, вона була майже непомітною, ховаючись за тінню Nvidia та TSMC, але ситуація починає кардинально змінюватися.



Якщо трохи заглибитися в історію, у 2012 році банкрутство зазнала японська компанія Elpida, яка була гордістю японської напівпровідникової промисловості. Колись вона базувалася на технологічних можливостях трьох гігантів — NEC, Hitachi і Mitsubishi, але менш ніж за 20 років зникла з ринку DRAM. Саме Micron викупила цю компанію. Після цього корейські Samsung і SK Hynix захопили ринок, послідовно витісняючи конкурентів. Однак Micron вижила. Сьогодні вона є єдиною компанією в США, яка масово виробляє високотехнологічні пам’ятні чіпи.

Чому зараз акції Micron привертають таку увагу? Тому що вона має відповідь на структурні проблеми AI-обчислень. Обчислювальна потужність GPU значно зросла, але існує велика вузька частина — затримка у доступі до даних. Час очікування даних стає довшим за час самих обчислень. Ця «стіна пам’яті» не може бути подолана програмним забезпеченням, її можна подолати лише апаратним шляхом. І саме цим займається Micron вже понад 40 років.

На етапі inference AI навантаження на обчислення дуже низьке, і система обмежена пропускною здатністю пам’яті. Для великих мовних моделей, таких як KV-кеш, потрібно десятки гігабайт пам’яті, і навіть два GPU A100 можуть одночасно обробляти лише кілька десятків запитів. Енергія, витрачена на зчитування даних з зовнішньої пам’яті, у 100–200 разів перевищує енергію самих обчислень. Це означає, що більша частина електроенергії в датацентрах витрачається не на обчислення, а на передачу даних.

Nvidia виробляє GPU H100 і B200 на TSMC, але високошвидкісна пам’ять HBM, яка інтегрується з цими GPU, виробляється Micron. GPU — це мозок, а HBM — це швидкий канал передачі даних, що тісно з ним пов’язаний. Обидва компоненти є незамінними, і лише їх поєднання з архітектурою Nvidia та технологіями пам’яті Micron дає справжній AI-акселератор.

Стратегія Micron у конкуренції відрізняється від Nvidia. Nvidia змагається архітектурою та екосистемою, а Micron зосереджена на процесних технологіях і постійному вдосконаленні багатошарових пакетів. Завдяки розвитку процесу 1-γ зменшується вартість бітів і збільшується кількість чипів на одиницю площі, що підвищує валову маржу.

Зараз акції Micron приблизно коштують 600 доларів, а коефіцієнт P/E становить 21,44 — це свідчить про те, що бізнес-модель, яка відрізняється від традиційних виробників пам’яті, цінується ринком. Раніше компанія виробляла стандартну DDR-пам’ять, і її обсяги та ціни залежали від ринкової ситуації. Тепер же HBM виготовляється за замовленням, і компанія укладає довгострокові контракти з клієнтами, такими як Nvidia, перед початком виробництва, фіксуючи ціну та кількість. За повідомленнями, виробничі потужності HBM на 2026 рік вже повністю розпродані.

У цьому бізнесі майбутні доходи Micron вже не є прогнозами, а визначаються контрактами. Це перетворює її з циклічної компанії у інфраструктурного провайдера. Це також змінило оцінку компанії на фондовому ринку: стабільні довгострокові контракти підвищують мультиплікатор її вартості.

На світовому ринку DRAM три компанії — Samsung, SK Hynix і Micron — мають приблизно 95% частки, кожна з них має свої сильні сторони. Micron найшвидше просувається у процесних технологіях і першим починає масове виробництво нових високої щільності DRAM. У сегменті HBM SK Hynix домінує з понад 50% ринку, але HBM Micron має переваги в енергоефективності — зменшення споживання енергії на 20–30%, що підтверджено тестами. У датацентрах з тисячами GPU ця різниця безпосередньо впливає на витрати на електроенергію та охолодження.

Завдяки диференціації Micron зміг увійти до ланцюга постачання Nvidia як постачальник. Хоча виробничі потужності найменші в галузі, стратегія технологічного преміуму дозволяє компанії розвиватися без цінової конкуренції.

Ще одна важлива сфера — CXL (Compute Express Link). HBM вирішує проблему пропускної здатності всередині одного GPU, але при масштабуванні AI-кластерів до сотень або тисяч GPU виникають нові виклики. Оскільки пам’ять фізично закріплена у сервері і не може ділитися між машинами, виникає проблема низької ефективності використання пам’яті — до 20–30%. CXL дозволяє об’єднати кілька модулів пам’яті у незалежні пулі і динамічно перенаправляти їх до потрібних обчислювальних вузлів.

Micron представила розширювальні модулі CXL Type 3 на базі
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити