Два по 20 миллиардов долларов: OpenAI и NVIDIA ведут «битву логики»

Нулевой

Автор: сяопи

Декабрь 2025 года, Nvidia тихо потратила 20 миллиардов долларов на покупку компании Groq, производителя AI-чипов.

17 апреля 2026 года OpenAI объявила о закупке у другой компании по производству AI-чипов Cerebras более 20 миллиардов долларов на чипы. В тот же день Cerebras официально подала документы на IPO на NASDAQ, целевая оценка — 35 миллиардов долларов.

Две суммы, почти полностью совпадающие по размеру. Одна — покупка, другая — закупка. Одна — от крупнейшего в мире продавца AI-чипов, другая — от крупнейшего покупателя AI в мире.

Это не два независимых события, это два симметричных действия в рамках одной войны. Название поля боя: AI inference.

Большинство людей не заметили эту войну. Потому что в ней нет взрывов, есть только финансовые отчеты и технические обсуждения, распространяющиеся среди инженеров Кремниевой долины. Но её влияние может быть более глубоким, чем у любой AI-выставки за последние два года — потому что она перераспределяет контроль над рынком, который почти наверняка станет крупнейшим технологическим рынком в истории.

Что такое inference, почему в 2026 году ключевое слово больше не «обучение»

Прежде чем говорить о двух суммах по 200 миллиардов, нужно понять один фон: на поле боя AI-чипов происходит смена фокуса.

Обучение и inference — это два этапа потребления вычислительных ресурсов AI. Обучение — создание модели — кормление нейросети огромным объемом данных, чтобы она научилась определенной способности. Этот процесс обычно происходит один раз или периодически обновляется. Inference — использование модели — каждый раз, когда пользователь задает вопрос, ChatGPT дает ответ, и за этим стоит запрос inference.

В 2023 году основная часть затрат на AI-вычисления шла на обучение, inference был второстепенным.

Но этот баланс быстро меняется.

По данным исследований Deloitte и CES 2026, в 2025 году inference уже занимал 50% всех затрат на AI-вычисления; к 2026 году эта доля вырастет до двух третей. Генеральный директор Lenovo Ян Юнцзинь на CES прямо заявил: структура затрат на AI полностью перевернется — с «80% обучение + 20% inference» на «20% обучение + 80% inference».

Логика проста. Обучение — разовая стоимость, inference — постоянные расходы. GPT-4 обучили один раз, но каждый день он отвечает миллиардам пользователей, каждый диалог — это запрос inference. После масштабного внедрения суммарные затраты на inference значительно превосходят затраты на обучение.

Что это означает? Самая прибыльная часть AI-индустрии переходит с «чипов для обучения» на «чипы для inference». И эти два типа чипов требуют совершенно разной архитектуры.

Проблема Nvidia: чипы, созданные для обучения, по природе не подходят для inference

Чипы Nvidia H100 и H200 — монстры, созданные для обучения. Их основное преимущество — очень высокая пропускная способность вычислений — обучение требует множества умножений матриц, и GPU отлично справляется с этим «многопроцессорным параллельным вычислением».

Но узким местом inference является не вычислительная мощность, а пропускная способность памяти.

Когда пользователь задает вопрос, чип должен «перенести» веса всей модели из памяти в вычислительные блоки, чтобы сгенерировать ответ. Этот процесс «переноса» — истинный источник задержки inference. GPU Nvidia использует внешнюю память с высокой пропускной способностью (HBM), и этот перенос неизбежно вводит задержку — для ChatGPT, обрабатывающего десятки миллионов запросов в секунду, эта задержка, умноженная на масштаб, становится настоящим узким местом по производительности.

Инженеры OpenAI заметили эту проблему, когда оптимизировали Codex (инструмент для генерации кода), и обнаружили, что независимо от настроек параметры ответа ограничены архитектурой GPU Nvidia.

Другими словами, слабое место Nvidia в inference — не уровень усилий, а архитектура.

Чип Cerebras WSE-3 идет по совершенно иному пути. Этот чип настолько большой, что требует упаковки на уровне кремниевой пластины — площадь 46 255 квадратных миллиметров, больше ладони человека — интегрирует 900 тысяч AI-ядер и 44 ГБ сверхскоростной SRAM прямо на одном кристалле. Память расположена прямо рядом с вычислительными ядрами, и расстояние «переноса» сокращается с сантиметров до микрометров. В результате inference работает в 15–20 раз быстрее, чем на Nvidia H100.

Стоит добавить, что Nvidia не сидит сложа руки. Новая архитектура Blackwell (B200), выпущенная для inference, в 4 раза превосходит H100 по производительности, и уже внедряется в массовое производство. Но Blackwell — это движущаяся мишень — Cerebras тоже совершенствуется, и на рынке появляется всё больше конкурентов, помимо Cerebras.

20 миллиардов Nvidia: признание за крупнейшую в истории сделку слияния и поглощения

24 декабря 2025 года Nvidia объявила о своей крупнейшей в истории покупке.

Цель — Groq.

Groq — конкурент Cerebras, тоже специализируется на чипах с SRAM-архитектурой, оптимизированных для inference — его чип называется LPU (Language Processing Unit), и в публичных тестах он был признан самым быстрым в мире по скорости inference. Nvidia потратила 20 миллиардов долларов, чтобы купить всю ключевую технологию Groq и команду основателей, включая основателя Джонатана Росса и нескольких ведущих инженеров, работавших в команде TPU Google.

Это крупнейшая сделка Nvidia после приобретения Mellanox за 7 миллиардов долларов в 2019 году — она втрое больше.

По мнению многих аналитиков, важнее не сумма, а посыл, который за ней стоит: Nvidia считает, что у нее есть структурный пробел в inference, и этот пробел настолько велик, что стоит потратить 20 миллиардов, чтобы его закрыть.

Если бы Nvidia действительно верила, что ее GPU в inference — непобедимы, ей не понадобилось бы покупать Groq. По сути, эта сделка — это покупка технологий на 200 миллиардов долларов — признание того, что SRAM-архитектура действительно обладает преимуществами в inference, и что существующие продукты Nvidia не могут полностью покрыть этот сегмент, и чтобы закрыть этот пробел, она платит самую высокую цену.

Конечно, официальная версия Nvidia после покупки — «глубокая интеграция с Groq для предоставления более полного решения для inference». Технический перевод — «мы понимаем, что наши технологии недостаточны, поэтому покупаем чужие».

OpenAI за 200 миллиардов: покупка чипов — лишь видимость, важна доля в компании

Теперь вернемся к OpenAI.

В январе 2026 года OpenAI и Cerebras подписали трехлетний контракт на закупку вычислительных мощностей на сумму 10 миллиардов долларов. Тогда СМИ писали, что «OpenAI диверсифицирует поставщиков чипов», и это звучало как обычная закупка.

Но детали, опубликованные 17 апреля, кардинально меняют смысл:

Первое — сумма закупки выросла с 10 до 20 миллиардов долларов, удвоившись.

Второе — OpenAI получит опцион на покупку акций Cerebras, и с ростом объема закупок доля OpenAI может достигнуть 10% уставного капитала Cerebras.

Третье — OpenAI предоставит Cerebras 1 миллиард долларов на строительство дата-центров — другими словами, OpenAI помогает Cerebras строить фабрики.

Эти три детали рисуют совершенно другую картину: OpenAI не просто покупает чипы, а фактически создает поставщика.

Такой сценарий хорошо известен в истории технологий. В 2006 году Apple начала сотрудничество с Samsung по заказу на производство собственных чипов серии A, изначально — крупная закупка, но по мере углубления участия Apple, в 2010-х она начала самостоятельно разрабатывать чипы серии M, и контроль над цепочкой поставок полностью перешел от Intel и Samsung к Apple. То же самое сейчас делает OpenAI — но есть важное отличие: Apple с самого начала владела правами на дизайн чипов, а OpenAI пока только закупает. После выхода на IPO Cerebras продолжит развиваться независимо и обслуживать других клиентов. Конечная цель — не полностью контролировать Cerebras, а создать глубокую взаимозависимую экосистему.

С одной стороны, с помощью 20 миллиардов и доли в компании OpenAI связывает Cerebras, чтобы обеспечить постоянное поступление inference-вычислений вне Nvidia; с другой — OpenAI работает с Broadcom над собственными ASIC-чипами, которые планируется запустить к концу 2026 года. Обе стратегии — путь к автономии в вычислительных мощностях.

Что такое IPO Cerebras, что вы покупаете

17 апреля Cerebras подала заявку на IPO на NASDAQ, целевая оценка — 35 миллиардов долларов, планируется привлечь 3 миллиарда.

Эта оценка более чем в четыре раза превышает 8,1 миллиарда долларов, которую компания имела в сентябре 2025 года. В феврале этого года Cerebras завершила новый раунд финансирования, и оценка достигла 23 миллиарда долларов, а целевая — 35 миллиардов — еще на 52% выше.

Знающие историю Cerebras понимают, что это уже вторая попытка выйти на биржу. Первая — в 2024 году — была отменена из-за того, что крупный клиент G42 (суверенный инвестиционный фонд ОАЭ) составлял 83–97% доходов за год, и CFIUS вмешался по соображениям национальной безопасности.

Теперь G42 исчез из списка акционеров, его место занял OpenAI.

Другими словами, структурная проблема концентрации клиентов у Cerebras пока не решена — меняются только имена крупных клиентов, а зависимость от них остается. Инвесторы должны решить: лучше ли это или хуже? С точки зрения кредитоспособности — очевидно, что OpenAI лучше G42; с точки зрения стратегии — OpenAI одновременно и конкурент Cerebras, и потенциальный покупатель его собственных чипов. Если собственные ASIC OpenAI созреют, это станет реальной угрозой для Cerebras.

Но и у Cerebras есть свои плюсы: компания активно ищет новых клиентов, и в документах к IPO обещают расширение ассортимента доходов, чтобы снизить концентрацию. Но до тех пор, пока не начнется массовое производство собственных чипов OpenAI, ответ на вопрос остается открытым.

Покупая акции Cerebras, вы одновременно делаете ставку: OpenAI продолжит выбирать Cerebras, а собственные ASIC — не появятся раньше времени. И то, и другое — не гарантировано.

Конечно, есть и обоснованные причины для оптимизма: если рынок inference продолжит расти по прогнозам, даже небольшая доля Cerebras в этом рынке даст очень большие цифры. Вопрос не в том, есть ли у Cerebras шанс, а в том, отражена ли в цене 350 миллиардов — самая оптимистичная оценка.

Две суммы по 200 миллиардов — симметрично появились в конце 2025 года и в апреле 2026-го.

Одна — от крупнейшего продавца AI-чипов в мире, купившего у конкурента технологии inference.

Другая — от крупнейшего покупателя AI в мире, создающего компанию, конкурирующую с Nvidia на рынке inference.

200 миллиардов Nvidia — это защита — она заплатила самую высокую цену, чтобы закрыть структурный пробел в своих технологиях.

200 миллиардов OpenAI — это наступление — она тратит деньги на создание инфраструктуры inference, независимой от Nvidia, и одновременно получила долю в платной дороге.

Эта война идет без выстрелов, но поток денег никогда не лжет. Эти две суммы показывают яснее любых презентаций: контроль над инфраструктурой inference в AI — идет борьба. И этот рынок к 2026 году займет две трети вычислительных затрат отрасли.

IPO Cerebras — сигнал начала этой войны.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить