Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
Промоакции
Участвуйте и получайте награды
Реферал
20 USDT
Приглашайте друзей за бонусы
Партнерская программа
Эксклюзивные комиссионные
Gate Booster
Растите влияние и получайте аирдроп
Анонсы
Обновления в реальном времени
Блог Gate
Статьи о криптоиндустрии
VIP-услуги
Огромные скидки на комиссии
Управление активами
Универсальное решение для управления активами
Институциональный
Крипто-решения для бизнеса
Разработчикам (API)
Подключение к экосистеме приложений Gate
Внебиржевые банковские переводы
Ввод и вывод фиатных денег
Брокерская программа
Щедрые механизмы скидок API
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Недавно у меня была возможность глубоко изучить компанию Micron Technology. Честно говоря, я удивлён её слабым присутствием — она скрыта за тенями Nvidia и TSMC, почти не привлекает внимания, но при этом поддерживает фундамент AI-инфраструктуры.
Если вспомнить, в 2012 году, когда японская Elpida обанкротилась, её активы приобрела Micron. Тогда индустрия DRAM-памяти практически исчезла из Японии, а рынок контролировали Samsung и SK Hynix из Южной Кореи. В этом контексте Micron осталась единственной компанией в США, способной массово производить передовые чипы памяти.
Почему так происходит? В условиях быстрого развития AI все говорят только о скорости вычислений. Производительность GPU, TFLOPS, вычислительные мощности. Но на самом деле узкое место совсем в другом — это пропускная способность памяти.
GPU тратит больше времени на ожидание данных после завершения вычислений, чем на сами вычисления. Это называют «стеной памяти». Для запуска модели с 700 миллиардами параметров требуется примерно 140 ГБ памяти в формате FP16. Видеопамять высококлассных GPU-карт, таких как A100 или H100, составляет около 80–192 ГБ. Значит, данные приходится разделять между несколькими картами.
Чтобы решить эту проблему, Nvidia внедрила высокопроизводительную память рядом с GPU — HBM. Это многослойное вертикальное соединение DRAM-кубов, упакованных на силиконовом интерпорере. Micron производит эти HBM.
HBM — это не просто память, а сердце AI-вычислений. В фазе инференса нагрузка на GPU очень низкая, и вся система ограничена пропускной способностью памяти. Энергия, затрачиваемая на передачу данных, в 100–200 раз превышает энергию самих вычислений. Значит, большая часть энергопотребления дата-центров идет на передачу данных по шинам.
Причина, по которой Micron остаётся в тени, — в отсутствии ярких архитектурных инноваций. Nvidia совершенствует дизайн GPU, TSMC — технологию производства логических чипов. А Micron занимается скромной, но фундаментальной работой: развитием технологического процесса в 1 гиганоде, сложной многослойной упаковкой, оптимизацией энергоэффективности.
Производство HBM требует вертикального многослойного соединения DRAM-кубов. Если в одном слое есть дефект, весь модуль становится непригоден. Общий выходной коэффициент для 8-слойных HBM3E — около 61%. Для 12-слойных HBM4 он падает до 48%. Влияние каждого слоя умножается, а не складывается.
SK Hynix занимает более 50% рынка HBM благодаря своей технологии жидкостной капсуляции MR-MUF, которая напрямую повышает качество межслойных соединений. Micron использует процесс TC-NCF, менее эффективный по теплоотводу. Но при этом их HBM потребляет на 20–30% меньше энергии, что выделяет их по энергоэффективности.
Мировой рынок DRAM контролируют три компании: Samsung, SK Hynix и Micron — вместе 95%. Но позиции у них разные. Micron — лидер по скорости технологического прогресса, повышая плотность памяти на пластине и снижая себестоимость на бит.
Samsung сталкивается с проблемами выхода из-за низкого уровня выхода при процессах ниже 14 нм, что замедляет поставки. Скорость технологического развития SK Hynix примерно сопоставима с Micron.
Коэффициент цена/прибыль Micron — 21, что значительно выше 8–10 у традиционных производителей памяти. Это связано с моделью заказного производства HBM. Они заключают долгосрочные контракты с Nvidia и другими клиентами, фиксируя цену и объемы. К 2026 году производственные мощности HBM уже полностью распроданы.
Это значительно снизило циклическую неопределенность рынка памяти. Уолл-стрит оценил это положительно и переориентировал Micron как инфраструктурного поставщика. А геополитический фактор — необходимость США развивать внутреннее производство передовых чипов — ускоряет приток инвестиций.
Следующая битва за HBM — CXL. Compute Express Link — протокол совместного использования памяти между серверами с автоматическим управлением кешем. В гиперскейл дата-центрах 20–30% памяти простаивают. CXL позволяет решить эту проблему за счет пулов памяти.
Micron представила расширительный модуль CXL Type 3. HBM обеспечивает сотни гигабит пропускной способности и низкую задержку, а модули CXL — терабайты объема и гибкое распределение памяти. Совместное использование позволяет перемещать горячие данные в локальный HBM, а холодные — в пул CXL.
Если отвечать на вопрос, что такое HBM, — это не просто память, а необходимый элемент эволюции AI-инфраструктуры. В условиях, когда вычислительная мощность растет быстрее пропускной способности памяти, единственный способ преодолеть этот физический барьер — HBM.
В долгосрочной перспективе полупроводниковая индустрия столкнется с пределами материалов. Плоское миниатюризация приближается к физическим границам, а снижение выхода при 3D-упаковке — экспоненциально возрастает. Внутри памяти тоже есть фундаментальные противоречия: транзисторы DRAM требуют низкого напряжения, а логические чипы — низкого порогового. Эти требования противоречат друг другу.
В итоге конкурентоспособность Micron будет зависеть не от одной технологии, а от комплексных возможностей снижать количество ошибок в различных аспектах: повышение выхода, упаковка, системная интеграция. Для накопления этого опыта нужны десятилетия производства — это и есть истинная «крепость».