Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Означает ли новая технология TurboQuant от Google конец для Micron?
Чуть больше года назад китайский хедж-фонд, переориентировавшийся на ИИ, выпустил продвинутую модель искусственного интеллекта под названием DeepSeek. Хотя ведутся споры о том, насколько дёшево и на каких чипах DeepSeek обучали, сомнений нет: DeepSeek внедрил новаторские улучшения, которые значительно повысили эффективность обучения модели ИИ с использованием меньшего количества и «менее хороших» полупроводников.
На новостях акции компаний по производству ИИ-полупроводников и памяти резко просели — исходя из поверхностного впечатления, что ИИ-компаниям не понадобится покупать так много логических и память-чипов. Однако теперь мы все знаем, что впоследствии эти акции отскочили и даже сильнее, поскольку повышение эффективности модели не сдержало спрос на чипы. Скорее, ИИ-компании использовали полученные эффициенты для инвестиций в ещё более продвинутые модели, увеличивая общий спрос на вычислительные мощности и память.
На прошлой неделе Alphabet (GOOG +5.02%) (GOOGL +5.10%) Google Research выпустила TurboQuant — программную технологию сжатия памяти для ИИ, которая позволяет выполнять инференс гораздо более эффективно, используя меньше памяти. В ответ крупные компании по памяти, такие как Micron (MU +4.80%) и её поставщики, резко распродались.
Но является ли это просто ещё одним моментом DeepSeek, который инвесторам стоит покупать?
Развернуть
NASDAQ: MU
Micron Technology
Изменение за сегодня
(4.80%) $15.46
Текущая цена
$337.26
Ключевые показатели
Рыночная капитализация
$381B
Диапазон за день
$311.50 - $337.70
Диапазон за 52 недели
$61.54 - $471.34
Объём
3.1M
Средний объём
40M
Валовая маржа
58.54%
Дивидендная доходность
0.18%
Что такое TurboQuant?
TurboQuant существенно увеличивает ёмкость и ускоряет ключевой кэш (KV cache) при инференсе ИИ. KV-cache — это тип памяти, который позволяет алгоритму ИИ сохранять предыдущий контекст без пересчёта всех прошлых токенов для генерации новых. Следовательно, KV-cache — это своего рода «история» предыдущего вывода ИИ.
Но если KV-cache — это «история» прошлого контекста, то TurboQuant — быстрая, но точная «сводка» этой истории.
Если объяснить простыми словами, TurboQuant работает так. Модель ИИ понимает контекст, храня данные в виде векторов — многомерных диаграмм с несколькими «вложениями» (embeddings), то есть точками в осях X-Y-Z. Токен с похожим вектором на другой означает, что у него похожая взаимосвязь.
Для простоты давайте предположим плоскость X-Y. Тогда одно вложение может быть задано направлением «пройти три клетки на восток и четыре клетки на север».
TurboQuant упрощает эти команды, говоря: «пройти пять клеток под углом 37 градусов к северо-востоку». Это сильно сокращает вычисления, необходимые для понимания контекста, хотя может приводить к остаточным ошибкам. Затем TurboQuant накладывает механизм коррекции ошибок с 1 битом, который всё это исправляет. Даже с учётом дополнительного бита эта техника использует гораздо меньше памяти, чем стандартный метод координат XYZ для векторов ИИ.
В результате коррекции ошибок Google Research заявляет, что TurboQuant может увеличить ёмкость KV-cache в шесть раз, а также сделать инференс ИИ в восемь раз быстрее — при этом без потери точности.
TurboQuant разгоняет инференс ИИ. Источник изображения: Getty Images.
Как TurboQuant повлияет на память для ИИ
Если инференс ИИ может использовать в шесть раз меньше DRAM и работать в восемь раз быстрее, логика подсказывает, что в будущих инференс-приложениях может возникнуть меньший спрос на память.
Это звучит немного упрощённо, хотя существует правдоподобный негативный сценарий. Один из рисков в том, что доля рынка инференса ИИ может сместиться от дорогих GPU с высокопропускной пропускной способностью памяти (HBM) к CPU, работающим на «традиционной» серверной памяти вроде DDR5 или MRDIMM.
HBM намного быстрее этих более старых типов памяти, но при этом вмещает меньше контекста и стоит гораздо дороже. Благодаря восьмикратному росту скорости KV cache от TurboQuant компания, которая теперь хочет использовать множество ИИ-агентов для инференса на большом объёме данных — например, 1 000-страничном юридическом документе — теоретически может эффективнее применять DDR5 или MR-DIMM. Хотя HBM тоже будет усилена TurboQuant, более старые формы памяти, используемые CPU, могут оказаться «достаточно быстрыми» для крупных предприятий, стремящихся снизить издержки.
HBM — один из главных факторов сегодняшней нехватки предложения памяти, поскольку для производства бита HBM нужно в 3–4 раза больше оборудования, чем для «традиционной» памяти. Поэтому возможно, что когда спрос сместится в сторону более традиционной памяти для инференса, рынок памяти окажется менее ограниченным по поставкам.
Но бычья история вероятнее
Хотя TurboQuant создаёт потенциальный риск для рынка HBM, который «высасывает» большую часть отраслевого предложения, этот инвестор всё же считает, что более вероятен бычий сценарий.
Во-первых, HBM также выиграет от TurboQuant: это позволит инференсу на базе HBM иметь более широкие окна контекста. Поэтому инференс не уйдёт полностью в CPU или традиционную память. Для приложений, где важна молниеносная задержка, HBM, вероятно, всё равно будет применяться в некоторой степени.
Кроме того, HBM всё ещё является основным типом памяти для обучения моделей ИИ, и TurboQuant на это не влияет. Хотя в будущем более крупным рынком станет инференс, спрос на HBM для обучения, вероятно, продолжит расти. Учитывая, что сейчас мы крайне недопоставлены по HBM, а TurboQuant ещё даже не внедрён за пределами лаборатории Google, у компаний по памяти будет время скорректировать темпы роста своего предложения.
Но, возможно, корректировки по предложению вообще не понадобятся — ведь парадокс Джевонса может проявиться для TurboQuant так же, как он проявился для DeepSeek. Парадокс Джевонса гласит, что когда процесс становится более эффективным, вместо того чтобы использовать меньше исходных ресурсов, спрос на эти ресурсы фактически растёт: возросшая эффективность открывает возможности для внедрения и приводит к появлению большего числа сценариев использования.
Поскольку большинство крупнейших технологических компаний считает, что мы всё ещё находимся в начале эпохи ИИ, если TurboQuant ускорит темпы, с которыми предприятия и потребители встраивают ИИ в свои бизнесы, этот растущий «прибой» спроса должен поднять все корабли.
Итог: эта распродажа памяти может оказаться возможностью. Хотя Micron и связанные с ней акции по капитальному оборудованию для полупроводников по-прежнему выросли за последний год весьма значительно, эта «пугалка» может быть шансом докупить или набрать первоначальную позицию, если вы пропустили рост в течение прошлого года.