Останнім часом у мене була можливість глибоко дослідити Microchip Technology. Чесно кажучи, я здивований їхньою слабкою присутністю. Вони ховаються за Nvidia та TSMC, майже не привертаючи уваги, але підтримують фундамент AI-інфраструктури.



Якщо згадати, у 2012 році, коли японська Elpida оголосила банкрутство, саме Microchip викупила її активи. Тоді індустрія DRAM-пам’яті майже зникла з Японії, а ринок контролювали Samsung та SK Hynix з Південної Кореї. У цьому середовищі Microchip залишилася єдиною компанією в США, здатною масово виробляти високотехнологічні пам’ятні чіпи.

Чому таке сталося? У швидкому розвитку AI всі говорять лише про швидкість обчислень. Потужність GPU, TFLOPS, обчислювальні можливості. Але справжній вузький місце зовсім інше — це пропускна здатність пам’яті.

GPU витрачає більше часу на очікування даних, ніж на самі обчислення. Це називається «стіною пам’яті». Щоб запустити модель з 700 мільярдами параметрів, потрібно приблизно 140 ГБ пам’яті у форматі FP16. Відеопам’ять висококласних GPU, таких як A100 або H100, становить від 80 до 192 ГБ. Тобто потрібно розподіляти дані між кількома картами для обробки.

Щоб вирішити цю проблему, Nvidia створила високопродуктивну пам’ять поруч із GPU — HBM. Це багатошарова вертикальна збірка DRAM-діодів, упакована на силіконовому інтерпозері. Microchip виробляє цю HBM.

HBM — це не просто пам’ять, а серце AI-обчислень. На етапі інференсу навантаження на GPU дуже низьке, і вся система обмежена пропускною здатністю пам’яті. Енергія, витрачена на передачу даних, у 100-200 разів перевищує енергію обчислень. Тобто більша частина енергоспоживання дата-центрів йде на передачу даних.

Причина, чому Microchip не привертає уваги, у тому, що вони не роблять яскравих архітектурних інновацій. Nvidia інноваційно проектує GPU. TSMC інноваційно виробляє логічні чіпи. А Microchip — скромно, але суттєво виконує свою роботу: розвиток процесів у 1Gノード, складне багатошарове пакування, оптимізація енергоефективності.

Виготовлення HBM вимагає вертикального насування кількох шарів DRAM-діодів, і будь-який дефект у шарі робить весь модуль непридатним. Загальний вихідний рівень для 8-шарової HBM3E — близько 61%. Для 12-шарової HBM4 він падає до 48%. Вплив кожного шару множиться, а не додається.

SK Hynix контролює понад 50% ринку HBM завдяки своїй технології MR-MUF, яка безпосередньо підвищує вихідність міжшарових з’єднань. Microchip використовує процес TC-NCF, що гірше відносно тепловіддачі, але їх HBM споживає на 20-30% менше енергії, що дає перевагу в енергоефективності.

Світовий ринок DRAM контролюють три компанії: Samsung, SK Hynix і Microchip, що займають 95%. Але їхні позиції дуже різняться. Microchip — найшвидший у прогресі процесів, підвищує щільність пам’яті на пластині та знижує виробничі витрати на біт.

Samsung стикається з проблемами вихідних характеристик при менших 14 нм і сповільнює темпи постачання. Швидкість розвитку процесів у SK Hynix майже така сама, як у Microchip.

Коефіцієнт ціни до прибутку Microchip становить 21, що значно вище за 8–10 у традиційних меморі компаній. Це через їхню модель виробництва на замовлення HBM. Вони укладають довгострокові контракти з клієнтами, такими як Nvidia, фіксуючи ціну та кількість. Вже повідомляється, що виробничі потужності HBM на 2026 рік повністю розпродані.

Це значно зменшило циклічність у ринку пам’яті. У Wall Street це оцінили і переорієнтували Microchip як інфраструктурного постачальника. Крім того, геополітичний контекст, коли США прагнуть розвивати внутрішнє виробництво передових пам’ятних чіпів, прискорює інвестиції.

Наступним полем бою для HBM стане CXL. CXL — Compute Express Link — протокол для спільного використання пам’яті між кількома серверами з автоматичним управлінням цілісністю кешу. У гігантських дата-центрах 20–30% пам’яті простоює. CXL дозволяє цю проблему вирішити.

Microchip представила модуль розширення пам’яті CXL Type 3. HBM забезпечує сотні гігабіт пропускної здатності з низькою затримкою, а CXL-модулі — терабайти обсягу з гнучким розподілом пам’яті. Спільне використання дозволяє зберігати «гарячі» дані у локальній HBM, а «холодні» — у CXL-пул пам’яті.

Якщо відповісти на питання, що таке HBM, то це не просто пам’ять, а необхідний продукт еволюції AI-інфраструктури. У той час як обчислювальна потужність зростає швидше за пропускну здатність пам’яті, єдиним способом подолати цей фізичний вузький місце є HBM.

У довгостроковій перспективі напруженість у напівпровідниковій галузі виникне через обмеження матеріалів. Плоске мініатюризація наближається до фізичних меж, а зниження вихідних характеристик багатошарових структур зростає експоненційно. Внутрішні обчислення у пам’яті також мають фундаментальні протиріччя: DRAM-транзистори потребують низької напруги стоку, тоді як логічні чіпи — низької порогової напруги. Ці дві потреби є повністю суперечливими.

Зрештою, конкурентоспроможність Microchip залежить не від однієї технології, а від комплексних можливостей зменшення кількості дефектів у процесах, покращення вихідності, пакування та системної інтеграції. Для накопичення цих навичок потрібно десятиліття досвіду виробництва. Це і є справжня «рва» — глибока оборона.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріплено