Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Wall Street оценивает GTC: по определению Nvidia, вычислительная мощность — это доход, а токен — новая крупная товарная позиция
Вопрос AI · Как значительное снижение стоимости токенов способствует расширению спроса на ИИ?
Годовая конференция GTC компании NVIDIA послала ключевой сигнал: коммерческая логика вычислительных мощностей для ИИ претерпевает кардинальную перестройку — токены стали новым товаром массового спроса, а вычислительные ресурсы — источником дохода.
Руководство NVIDIA на этой GTC значительно повысило прогноз продаж дата-центров с ранее озвученных 500 миллиардов долларов (до 2026 года) до более чем 1 триллиона долларов (суммарно за 2025–2027 годы), при этом ясно указав, что продажи независимых CPU Vera и решений на базе раковин LPX будут учитываться отдельно. Участники рынка расценивают эту конференцию как сильное подтверждение продолжительности ИИ-цикла NVIDIA.
По данным аналитической платформы ChaseWind, последний отчет JPMorgan указывает, что эта цифра означает, что по сравнению с текущими ожиданиями рынка по доходам дата-центров за 2026–2027 годы существует как минимум 50–70 миллиардов долларов потенциального роста.
Банк Америки прямо цитирует слова руководства NVIDIA — «Токен — это новый товар массового спроса, а вычислительные мощности равны доходам» — и отмечает, что система Blackwell по сравнению с предыдущим поколением Hopper снизила себестоимость одного токена до 35 раз, а предстоящая серия Rubin, скорее всего, снизит её еще в 2–35 раз, в зависимости от типа нагрузки и архитектурных настроек.
В рамках нарратива NVIDIA такая постоянная сжатие себестоимости токенов является фундаментальной движущей силой масштабного расширения спроса.
Увеличение видимости спроса вдвое, двунаправленное стимулирование крупными клиентами и корпоративным рынком
Руководство NVIDIA сообщило, что заказы на системы Blackwell и Vera Rubin с высокой степенью уверенности превысили 1 триллион долларов, что вдвое больше, чем 500 миллиардов долларов, объявленных на конференции GTC по дата-центрам в октябре 2025 года. Также отмечается, что дополнительные заказы и отложенные поставки на 2027 год могут продолжать накапливаться в течение следующих 6–9 месяцев.
Структура спроса становится более диверсифицированной: примерно 60% приходится на сверхкрупные облачные провайдеры (внутреннее потребление ИИ переходит от рекомендательных и поисковых нагрузок к крупным языковым моделям), оставшиеся 40% — на компании, использующие CUDA в облаке для ИИ, партнеров NVIDIA, суверенные AI-структуры и промышленные/корпоративные клиенты.
Банк Америки отмечает, что новая перспектива в 1 триллион долларов совпадает с предыдущими ожиданиями рынка по доходам за три года около 970 миллиардов долларов, что подтверждает логику, аналогичную оценке в 450 миллиардов долларов, сделанной в октябре 2025 года на основе старой оценки в 500 миллиардов.
Особое внимание уделяется тому, что руководство NVIDIA подробно объяснило в рамках конференции ускорение обработки традиционных бизнес-нагрузок как важный драйвер спроса.
Компания объявила о сотрудничестве с IBM (ускорение WatsonX), Google Cloud (ускорение BigQuery, экономия около 76% затрат на Snap), Dell (платформа данных для ИИ) и представила две основные библиотеки CUDA-X — cuDF и cuVS.
JPMorgan считает, что этот тренд «сильно недооценен рынком» — его логика в том, что закон Мура утратил силу, и единственным жизнеспособным альтернативным путем является специализированное ускорение, что расширяет адресуемый рынок NVIDIA за пределы циклов обучения и вывода ИИ.
Интеграция Groq LPU: самое важное нововведение в архитектуре
JPMorgan оценивает интеграцию трех LPU Groq с Vera Rubin как «самое важное нововведение в архитектуре» на этой GTC.
Эта раздельная архитектура для вывода и обработки данных объединяет GPU Rubin (высокая пропускная способность, 288 ГБ HBM4, 22 ТБ/с пропускной способности, 50 PFLOPS NVFP4) и LPU Groq (низкая задержка, 500 МБ встроенной SRAM, 150 ТБ/с пропускной способности, 1.2 PFLOPS FP8): предварительная подготовка данных выполняется на Rubin, а часть декодирования внимания — также на Rubin, тогда как фронтальные сети и генерация токенов — на Groq LPU.
Рамочная система LPX включает 256 LPU, обеспечивает 128 ГБ объединенной SRAM, 40 ПБ/с пропускной способности памяти и 315 PFLOPS вычислительной мощности для вывода, планируется к выпуску в третьем квартале 2026 года.
Руководство NVIDIA заявило, что для нагрузок, требующих сверхвысокой скорости обработки токенов (генерация кода, инженерные вычисления, длинные контексты), около 25% энергопотребления дата-центра будет выделено под LPX, остальные 75% — под чистую Vera Rubin NVL72.
Данные Bank of America показывают, что после интеграции системы Rubin с SRAM LPX эффективность высокопроизводительных низкозадержных нагрузок может увеличиться в 35 раз по сравнению с предыдущим поколением. JPMorgan отмечает, что эта архитектура напрямую решает фундаментальную проблему — одновременного оптимизации пропускной способности (ограниченной FLOPS) и задержки (ограниченной пропускной способностью), что позволяет NVIDIA конкурировать на высоком уровне в сегменте высокопроизводительных выводных систем, где ранее доминировали ASIC-производители.
Параллельное развитие кабельных решений и CPO: стратегия «несколько ставок»
Руководство NVIDIA прямо ответило на спор между кабельными соединениями и CPO, подтвердив одновременное развитие обеих линий.
В текущем поколении Vera Rubin, рама Oberon использует медные кабели для расширения до NVL72 и оптические для расширения до NVL576; массовое производство коммутаторов Spectrum-6 SPX с объединенной оптической Ethernet-магистралью, разработанных совместно с TSMC, — руководство отмечает, что их оптическая эффективность по сравнению с традиционными модульными трансиверами выросла в 5 раз, а надежность — в 10 раз.
Для Rubin Ultra (вторая половина 2027 года) планируется использование рамы Kyber с расширением NVLink по медным кабелям (до 144 GPU), а также альтернативный вариант — NVLink с CPO. Feynman (2028) будет поддерживать оба варианта расширения — медные кабели и CPO, а также оснащен Spectrum-7 (204T, CPO) для горизонтального масштабирования.
Bank of America подчеркивает, что использование CPO для расширения и горизонтального обмена — полностью по желанию клиента, он может продолжать использовать медные кабели до подходящего момента. JPMorgan подтверждает, что оба варианта «согласованы» с их предыдущими прогнозами: расширение медными кабелями останется доминирующим по крайней мере до 2027 года, а доля CPO будет постепенно расти в сегментах горизонтального масштабирования и конфигурациях NVL576+.
Vera CPU: новый миллиардный источник дохода для AI-агентов
Руководство NVIDIA ясно заявило, что независимый бизнес Vera CPU «уже стал бизнесом в десятки миллиардов долларов», и Bank of America отмечает, что этот источник дохода пока не учтен в текущих рыночных ожиданиях, он является дополнительным вкладом.
Vera CPU оснащена 88 собственными ARM-ядрами Olympus, память LPDDR5X обеспечивает пропускную способность 1.2 ТБ/с (в два раза меньше, чем у традиционных серверных CPU), а через NVLink-C2C соединяется с GPU со скоростью 1.8 ТБ/с (в 7 раз быстрее PCIe Gen 6). Рамы Vera CPU включают 256 жидкостных охлаждаемых CPU, поддерживают более 22 500 одновременных процессов.
Руководство подчеркивает, что CPU становится узким местом в расширении AI-агентов — обучение с подкреплением и рабочие процессы агентов требуют большого количества CPU для тестирования и верификации выводов GPU. Meta уже масштабно внедряет предыдущее поколение CPU Grace, Vera заменит его в 2027 году.
JPMorgan квалифицирует этот доход как высокомаржинальный, повторяемый (развернутый вместе с GPU в AI-заводах), и структурно связан с кривой активизации AI-агентов, которую NVIDIA активно стимулирует.
Дорожная карта продукции до 2028 года, постоянное усиление архитектурного ритма
NVIDIA вновь подтвердило ежегодный цикл выпуска платформ: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).
Rubin Ultra будет иметь конфигурацию из 4 GPU, оснащенных 1 ТБ HBM4e, а также новую LPU-чиповую линию LP35 (с внедрением NVFP4), рама Kyber поддержит до 144 GPU по NVLink (седьмое поколение NVLink, 3.6 Тб/с на GPU, суммарная пропускная способность NVL576 — 1.5 Пб/с).
Подробности Feynman превзошли ожидания рынка:
Новый GPU выполнен по техпроцессу TSMC A16 (1.6 нм), включает технологию стеков и кастомизированную HBM; новый CPU получил название Rosa (в честь Розалинд Франклин), специально разработан для оркестровки рабочих нагрузок, связанных с межGPU, LPU, памятью и сетью; новый LPU — LP40, создан внутри команды Groq NVIDIA; также представлены DPU BlueField-5, суперсетевая карта ConnectX-10, NVLink 8 и Spectrum-7 (204T, CPO).
JPMorgan считает, что вертикально интегрированная платформа NVIDIA (уже охватывающая семь чипов, пять системных раковин и программный стек) трудно воспроизвести, а ускорение вывода и традиционных рабочих нагрузок способствует структурному расширению адресуемого рынка и постоянному росту клиентской базы, что поддерживает более продолжительный цикл капиталовложений в AI, чем ожидает рынок.