Ситуация с распространением ИИ… Ключ к победе и поражению — не «конкуренция GPU», а экономически эффективная инфраструктура для вывода.

robot
Генерация тезисов в процессе

По мере того, как компании внедряют искусственный интеллект (ИИ), выходящий за рамки экспериментальной стадии и переходящий в фазу полномасштабного распространения, меняется и ключ к успеху на рынке. Сегодня основное соревнование уже не сводится к простому наращиванию больших моделей и увеличению количества графических процессоров (GPU), а к тому, кто сможет лучше построить «масштабируемую систему ИИ для вывода» с контролируемым бюджетом и стабильной работой.

Red Hat и Intel следуют этой тенденции, ускоряя развитие инфраструктуры для ИИ на базе открытых технологий. Главный инженер по ИИ в Red Hat Танеем Ибрагимом (Taneem Ibrahim) и вице-президент отдела дата-центров и ИИ Intel Билл Пирсон (Bill Pearson) на конференции «Red Hat Summit 2026» отметили, что реальные вызовы в управлении крупномасштабными ИИ-сервисами связаны с эффективностью затрат и оптимизацией инфраструктурных решений.

От ориентации на GPU к стратегии параллельных CPU

На начальных этапах распространения генеративного ИИ, после появления ChatGPT и моделей с открытыми весами, основной практикой было развертывание крупных моделей на огромных кластерах GPU. Однако в реальных корпоративных условиях операционные расходы и управляемость становятся так же важны, как и производительность. В связи с этим, важной задачей становится эффективное масштабирование моделей на платформах Red Hat Enterprise Linux (RHEL) и OpenShift.

Ибрагим отметил, что Red Hat все больше задумывается о том, как управлять одним из своих наиболее значимых открытых проектов — vLLM — в масштабных средах. Он подчеркнул, что основная сложность — снизить «стоимость за каждый токен», чтобы применять ИИ в реальных бизнес-процессах, сохраняя при этом управляемость и возможность масштабирования.

Недавние изменения также коснулись приоритетов инфраструктуры. Пирсон объяснил, что в отличие от начальной стадии, ориентированной на GPU, с распространением «агентного ИИ» роль центральных процессоров (CPU) вновь выходит на передний план. Это означает, что не все задачи ИИ требуют GPU, и в зависимости от типа обрабатываемых нагрузок важно правильно сочетать CPU и GPU.

Red Hat и Intel расширяют поддержку vLLM на базе Xeon

Исходя из этого, обе компании интегрировали в версию «Red Hat AI 3.4» полную поддержку vLLM в среде Intel Xeon. Основной подход здесь — не предлагать одинаковую конфигурацию всем клиентам, а разрабатывать аппаратные и программные решения, исходя из бизнес-целей и особенностей каждой компании.

Пирсон отметил, что ранее многие компании использовали подход «все в руках — молоток, значит, всё — гвозди», ориентируясь на GPU. Но он объяснил, что переоценка ресурсов CPU, уже развернутых в дата-центрах, и добавление GPU по мере необходимости позволяют добиться более высокой производительности при меньших затратах.

Особенно, такие задачи, как вызов инструментов и оркестрация данных, — это примеры агентного ИИ, которые зачастую можно решить без GPU. Intel считает, что поручение таких задач CPU позволяет GPU сосредоточиться на более тяжелых вычислениях, повышая общую эффективность системы.

Конкуренция в инфраструктуре ИИ: «операционная эффективность» становится важнее «производительности»

Данное обсуждение показывает, что рынок ИИ уже вышел за рамки борьбы за лучшие показатели моделей и перешел к экономической эффективности на этапе эксплуатации. Для компаний важнее не только иметь самые мощные устройства, а максимально эффективно использовать существующие ресурсы дата-центров, добиваясь «низкой стоимости за токен» и стабильных сервисов.

В конечном итоге, победитель в следующем поколении ИИ, скорее всего, будет не тот, у кого самые мощные аппаратные средства, а тот, кто сможет наилучшим образом сочетать CPU и GPU, а также использовать открытое программное обеспечение для максимизации «соотношения стоимости и эффективности». Совместная работа Red Hat и Intel рассматривается как шаг, соответствующий этой рыночной тенденции.

TP AI Подсказка: данный текст основан на модели TokenPost.ai и предназначен для краткого изложения. Основной текст может содержать пропуски или неточности.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить