Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Nvidia вступает в бизнес «разведения креветок» и полностью ставит на эпоху многотриллионного AI-вывода
Глобальный лидер в области вычислительных мощностей — NVIDIA — переходит от производства чипов к созданию AI-ферм, делая ставку на возможности рынка искусственного интеллекта для вывода моделей на inference. На открывшейся 17 марта конференции NVIDIA GTC 2026 (GPU Technology Conference) генеральный директор NVIDIA Дженсен Ху значительно повысил прогноз по доходам от нового поколения AI-чипов, нацелившись на триллион долларов, а также официально представил следующую аппаратную платформу и продукты, включая программный стек для “выращивания креветок”.
Эксперты отмечают, что один из ярких сигналов GTC — ускорение эпохи inference. В то же время новая вычислительная архитектура NVIDIA обещает революцию в таких отраслях, как теплоотвод и упаковочные материалы.
Усиление акцента на AI inference
На этой конференции NVIDIA подчеркнула, что в новой фазе развития AI inference станет ключевым элементом инфраструктуры. Компания представила следующую вычислительную платформу Vera Rubin и чип Groq3 LPU (Language Processing Unit).
«Ранее я показывал чип Hopper, — говорит Ху. — Теперь, говоря о Vera Rubin, все думают о целой системе». Он прогнозирует, что за последние годы потребность в вычислениях выросла в миллион раз, и ожидает, что в 2025–2027 годах этот спрос принесет компании не менее 1 трлн долларов дохода.
Платформа Vera Rubin включает 7 чипов, 5 систем на уровне стойки и суперкомпьютер для агентных AI, основанный на новых архитектурах Vera CPU и Blue Field-4S TX. По сравнению с предыдущей платформой Blackwell, новая требует в четыре раза меньше GPU для обучения крупных гибридных моделей, а пропускная способность inference и эффективность по ватту выросли в 10 раз.
На конференции Ху. подробно рассказал о чипе Groq 3 LPU, раскрыв “пасхальное яйцо”, подготовленное на февральском отчете о результатах. Этот чип, приобретенный у Groq за около 200 млрд долларов в декабре прошлого года, позиционируется как “кооперативный процессор inference” для Rubin GPU и стал важной частью стратегии NVIDIA в области inference.
Ху. отметил, что в эпоху AI inference потребности в вычислениях быстро дифференцируются. Для задач с высокой интерактивностью и сверхкоротким откликом традиционная архитектура GPU создает избыточность. Поэтому NVIDIA внедрила архитектуру LPU, ориентированную на “крайне низкую задержку при генерации токенов”, которая работает в тандеме с GPU. Vera Rubin занимается “предзаполнением” с массивными вычислениями, а LPU — “декодированием” с очень низкой задержкой. В такой гибридной системе пропускная способность inference и соотношение производительности к энергопотреблению могут увеличиться в 35 раз.
«В эпоху AI inference важны не только пиковые параметры, а возможность оптимизировать работу под реальные нагрузки с помощью более тонкой гетерогенной настройки, максимально эффективно используя каждую единицу вычислительной мощности», — заявил представитель Cloud Tianli Fei. Он подчеркнул, что для достижения максимальной стоимости и эффективности в inference требуется гетеросложная архитектура, разделение задач по аппаратам, что повышает общую эффективность системы. Идеи NVIDIA в этом направлении полностью соответствуют текущим трендам. Внутренние российские компании, такие как Cloud Tianli Fei, также активно развивают архитектуры inference, например, GPNPU, PD separation, 3D-стековая память, что свидетельствует о едином индустриальном векторе.
Революция в AI-агентах
OpenClaw — открытая платформа автономных AI-агентов, вызвала волну интереса к “выращиванию креветок” по всему миру. На GTC Ху. высоко оценил OpenClaw, назвав его «открытым проектом, который открыл новую границу AI и стал самым быстро развивающимся проектом с открытым исходным кодом в истории», запустив эпоху создания личных AI-агентов.
NVIDIA анонсировала Nemo Claw — программный стек для OpenClaw, позволяющий пользователям устанавливать платформу всего одной командой, а также повысить безопасность, надежность, масштабируемость и удобство использования AI-агентов.
Также на конференции было объявлено о расширении сотрудничества с ведущими промышленными софтверными компаниями — Cadence, Siemens и Synopsys — а также о внедрении платформ CUDA-X, Omniverse и GPU-ускоренных промышленных решений в такие компании, как Honda, Jaguar Land Rover, Samsung, SK Hynix и TSMC, что ускорит процессы проектирования, инженерии и производства.
Ху. заявил: «Началась новая индустриальная революция, физический AI и автономные AI-агенты кардинально меняют подходы к проектированию, инженерии и производству по всему миру. Совместно с глобальной экосистемой софтверных гигантов, облачных провайдеров и OEM-производителей NVIDIA создает полноценную платформу для ускоренных вычислений, которая позволит реализовать эти идеи с беспрецедентной скоростью и масштабом».
В первый день презентации акции NVIDIA выросли на 1,65%, закрывшись по цене 183,22 доллара за акцию. В то же время индекс индустрии NVIDIA на рынке A-Share снизился, лидером падения стал сегмент оптических модулей: Tianfu Communication упала примерно на 10%, Zhongji Xuchuang — на 3,33%, а лидер рынка AI PCB — Shenghong Technology — примерно на 3%.
Ведущие новые инфраструктурные решения для вычислений
NVIDIA продолжает лидировать в трансформации цепочки AI. С усложнением архитектуры AI Fabric и ростом энергопотребления традиционные системы воздушного охлаждения достигли физических пределов. В рамках новой платформы Rubin используется полностью жидкостное охлаждение, что делает жидкостные компоненты ключевым элементом новой инфраструктуры вычислений.
На конференции представлена компания LiminDa, входящая в состав Lianyue Intelligent Manufacturing, — единственный поставщик в Китае в экосистеме Vera Rubin Manifold (распределитель). Этот компонент — сердце жидкостной системы охлаждения, его технические характеристики напрямую влияют на эффективность и стабильность всей системы охлаждения.
Кроме того, новая архитектура Rubin может стимулировать изменения в упаковочных материалах.
«Из-за экстремальных требований Rubin к теплоотводу и сигналам, коммерциализация стеклянных плат очень ускорилась», — отметил аналитик Shenmeng Lu. — «При высокой плотности вычислений традиционные органические подложки (ABF) сталкиваются с серьезными физическими ограничениями».
Ключевые игроки внутри страны и за рубежом находятся на этапе перехода от технологической проверки к раннему массовому производству. По прогнозам Yole Group и других аналитических агентств, 2026 год станет годом выхода стеклянных плат на малосерийное коммерческое производство, а в сегментах HBM и логической упаковки спрос на стеклянные материалы будет расти в среднем на 33% в год.
Лу. подчеркнул, что отечественные компании обладают самой полной в мире цепочкой производства дисплеев и крупным внутренним рынком. Используя этот масштаб, российские предприятия уже делают первые прорывы в материалах и оборудовании, например, в лазерных микропорах, что позволяет им занять ключевые позиции в цепочке поставок AI-вычислительных чипов.