Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
Ситуация с распространением ИИ… Ключ к победе и поражению — не «конкуренция GPU», а экономически эффективная инфраструктура для вывода.
По мере того, как компании внедряют искусственный интеллект (ИИ), выходящий за рамки экспериментальной стадии и переходящий в фазу полномасштабного распространения, меняется и ключ к успеху на рынке. Сегодня основное соревнование уже не сводится к простому наращиванию больших моделей и увеличению количества графических процессоров (GPU), а к тому, кто сможет лучше построить «масштабируемую систему ИИ для вывода» с контролируемым бюджетом и стабильной работой.
Red Hat и Intel следуют этой тенденции, ускоряя развитие инфраструктуры для ИИ на базе открытых технологий. Главный инженер по ИИ в Red Hat Танеем Ибрагимом (Taneem Ibrahim) и вице-президент отдела дата-центров и ИИ Intel Билл Пирсон (Bill Pearson) на конференции «Red Hat Summit 2026» отметили, что реальные вызовы в управлении крупномасштабными ИИ-сервисами связаны с эффективностью затрат и оптимизацией инфраструктурных решений.
От ориентации на GPU к стратегии параллельных CPU
На начальных этапах распространения генеративного ИИ, после появления ChatGPT и моделей с открытыми весами, основной практикой было развертывание крупных моделей на огромных кластерах GPU. Однако в реальных корпоративных условиях операционные расходы и управляемость становятся так же важны, как и производительность. В связи с этим, важной задачей становится эффективное масштабирование моделей на платформах Red Hat Enterprise Linux (RHEL) и OpenShift.
Ибрагим отметил, что Red Hat все больше задумывается о том, как управлять одним из своих наиболее значимых открытых проектов — vLLM — в масштабных средах. Он подчеркнул, что основная сложность — снизить «стоимость за каждый токен», чтобы применять ИИ в реальных бизнес-процессах, сохраняя при этом управляемость и возможность масштабирования.
Недавние изменения также коснулись приоритетов инфраструктуры. Пирсон объяснил, что в отличие от начальной стадии, ориентированной на GPU, с распространением «агентного ИИ» роль центральных процессоров (CPU) вновь выходит на передний план. Это означает, что не все задачи ИИ требуют GPU, и в зависимости от типа обрабатываемых нагрузок важно правильно сочетать CPU и GPU.
Red Hat и Intel расширяют поддержку vLLM на базе Xeon
Исходя из этого, обе компании интегрировали в версию «Red Hat AI 3.4» полную поддержку vLLM в среде Intel Xeon. Основной подход здесь — не предлагать одинаковую конфигурацию всем клиентам, а разрабатывать аппаратные и программные решения, исходя из бизнес-целей и особенностей каждой компании.
Пирсон отметил, что ранее многие компании использовали подход «все в руках — молоток, значит, всё — гвозди», ориентируясь на GPU. Но он объяснил, что переоценка ресурсов CPU, уже развернутых в дата-центрах, и добавление GPU по мере необходимости позволяют добиться более высокой производительности при меньших затратах.
Особенно, такие задачи, как вызов инструментов и оркестрация данных, — это примеры агентного ИИ, которые зачастую можно решить без GPU. Intel считает, что поручение таких задач CPU позволяет GPU сосредоточиться на более тяжелых вычислениях, повышая общую эффективность системы.
Конкуренция в инфраструктуре ИИ: «операционная эффективность» становится важнее «производительности»
Данное обсуждение показывает, что рынок ИИ уже вышел за рамки борьбы за лучшие показатели моделей и перешел к экономической эффективности на этапе эксплуатации. Для компаний важнее не только иметь самые мощные устройства, а максимально эффективно использовать существующие ресурсы дата-центров, добиваясь «низкой стоимости за токен» и стабильных сервисов.
В конечном итоге, победитель в следующем поколении ИИ, скорее всего, будет не тот, у кого самые мощные аппаратные средства, а тот, кто сможет наилучшим образом сочетать CPU и GPU, а также использовать открытое программное обеспечение для максимизации «соотношения стоимости и эффективности». Совместная работа Red Hat и Intel рассматривается как шаг, соответствующий этой рыночной тенденции.
TP AI Подсказка: данный текст основан на модели TokenPost.ai и предназначен для краткого изложения. Основной текст может содержать пропуски или неточности.