Ф'ючерси
Сотні безстрокових контрактів
CFD
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Акції
AI
Gate AI
Ваш універсальний AI-помічник для спілкування
Gate AI Bot
Використовуйте Gate AI безпосередньо у своєму соціальному додатку
GateClaw
Gate Блакитний Лобстер — готовий до використання
Gate for AI Agent
AI-інфраструктура, Gate MCP, Skills і CLI
Gate Skills Hub
Понад 10 000 навичок
Від офісу до трейдингу: універсальна база навичок для ефективнішої роботи з AI
GateRouter
Розумний вибір із понад 40 моделей ШІ, без додаткових витрат (0%)
Обстановка поширення штучного інтелекту… ключовим фактором перемоги чи поразки є не «конкуренція GPU», а ефективна за витратами інфраструктура для обґрунтування висновків
Зі зростанням впровадження штучного інтелекту (ШІ) підприємствами, що виходить за межі експериментальної стадії та переходить до повномасштабного розповсюдження, ключові фактори перемоги на ринку також змінюються. Нині основою конкуренції вже не є просто накопичення більших моделей та більшої кількості графічних процесорів (GPU), а здатність краще будувати «масштабовані системи ШІ для роз inference», які стабільно працюють при контролі бюджету.
Red Hat та Intel відповідно до цієї тенденції прискорюють розгортання інфраструктури для ШІ на основі відкритих технологій. Головний інженер з інженерії ШІ в Red Hat Танеем Ібрагім та віце-президент відділу дата-центрів та ШІ в Intel Білл Пірсон на конференції «Red Hat Summit 2026» зазначили, що реальні виклики у масштабному обслуговуванні ШІ-послуг полягають у ефективності витрат та оптимізації комбінації інфраструктури.
Від переваги GPU до паралельної стратегії CPU
На початковій стадії поширення генеративного ШІ, після появи ChatGPT та відкритих моделей з вагами, основною практикою було розгортання великих моделей на великих кластерах GPU. Однак у реальному корпоративному середовищі операційні витрати та контроль стають не менш важливими за продуктивність, і тому питання ефективного масштабування моделей на платформах Red Hat Enterprise Linux (RHEL) та OpenShift стає ключовим.
Ібрагім зазначив, що Red Hat все більше думає про те, як у масштабних середовищах ефективно керувати одним із своїх найбільш важливих відкритих проектів — «vLLM». Він підкреслив, що головним викликом є зниження «вартості за кожен токен», щоб застосовувати ШІ у реальному бізнесі, зберігаючи при цьому можливості управління та масштабування.
Останнім часом пріоритети інфраструктури також змінюються. Пірсон пояснив, що у порівнянні з початковим етапом, орієнтованим на GPU, з поширенням «агентного ШІ» роль центрального процесора (CPU) знову стає важливою. Це означає, що не всі завдання ШІ потребують GPU, і залежно від типу оброблюваних навантажень важливо правильно поєднувати CPU та GPU.
Red Hat та Intel розширюють підтримку vLLM на базі Xeon
З урахуванням цього, обидві компанії інтегрували у версію «Red Hat AI 3.4» повну підтримку vLLM у середовищі Intel Xeon. Головна ідея полягає не у застосуванні «однакових налаштувань для всіх клієнтів», а у проектуванні апаратного та програмного забезпечення відповідно до характеру бізнесу та очікуваних результатів кожної компанії.
Пірсон зазначив, що раніше багато компаній підходили до цього з позиції «маю молоток — все здається цвяхом», орієнтуючись на GPU. Однак він пояснив, що переоцінка ресурсів CPU у дата-центрах, які вже масштабно розгорнуті, та перехід до додавання GPU за потребою дозволяє досягти кращої продуктивності при нижчих витратах.
Особливо, такі завдання, як виклики інструментів та оркестрація даних у агентних ШІ, багато з яких можна обробляти без GPU. Intel вважає, що делегування таких inference-завдань CPU дозволяє GPU зосередитися на більш важких обчисленнях, підвищуючи загальну ефективність системи.
Конкуренція у інфраструктурі ШІ: «Операційна ефективність» стає важливішою за «продуктивність»
Ця дискусія показує, що ринок ШІ вже перейшов від конкуренції за найкращі моделі до змагання за економічність у операційному етапі. Для компаній важливо не лише отримати найвищу продуктивність обладнання, а й максимально ефективно використовувати існуючі ресурси дата-центру, одночасно знижуючи «вартість за токен» та забезпечуючи стабільне обслуговування.
У підсумку, переможець у наступному поколінні ШІ, ймовірно, буде не той, хто має найпотужніше обладнання, а той, хто зможе оптимізувати співвідношення CPU та GPU і використовувати відкриті рішення для максимальної «вартості». Співпраця Red Hat та Intel у цьому контексті вважається кроком у відповідь на цю тенденцію ринку.
TP AI Підказка Цей текст створено на основі мовної моделі TokenPost.ai. Основний зміст може бути неповним або не відповідати фактам.