AMD(AMD.US)Крок до епохи інфраструктури AI рівня рами! Міцна співпраця з Tianhong Technology(CLS.US) для створення обчислювального кластера Helios

robot
Генерація анотацій у процесі

AMD(AMD.US) потужно оголосила, що співпрацюватиме з технологічною компанією Tяньхун (CLS.US) на глибокому рівні, виводячи на глобальний ринок AI-центрів обчислювальну інфраструктуру для AI у стойках від AMD — нову платформу Helios рівня rack-scale, яка має відповідати за масштабами платформі AI у стійках NVL72 від Nvidia. Для AMD, яка прагне дедалі більше відкушувати частку в кластері ключових обчислень для AI із масштабом до трильйонів доларів, у досягненні чого вона націлюється на забирати до 90% частки в Nvidia (NVDA.US), Helios є надзвичайно важливою для майбутніх доходів та перспектив прибутку AMD: AMD поступово переносить центр конкуренції на рівень інтегрованої системи, подібної до повної шафи/стійкового рішення, як у NVL72, і масове запускання в кінці 2026 року AI-обчислювального кластеру Helios по суті є прямим зіткненням із «rack-level AI infrastructure» Nvidia.

У спільній заяві дві компанії зазначили, що під час запуску цієї AI-обчислювальної платформи Tяньхун технології (тобто Celestica) братиме на себе розробку, проєктування та виробництво високопродуктивних мережевих комутаторів для вертикального масштабування в архітектурі AI-обчислювального кластеру Helios рівня rack-scale від AMD.

AMD Helios — це повний набір високопродуктивної, орієнтованої на відкриті стандарти AI-інфраструктури рівня стійки/стойки, створений спеціально для задач надмасштабного AI-тренування та інференсу в AI-центрах обробки даних. Rack-scale AI-архітектура — це нині один із найпопулярніших підходів до кластерних обчислень: у цій моделі обчислювальна потужність базується не на окремій CPU/GPU-серверній одиниці, а на всій стійці як на базовому обчислювальному елементі для AI-робочих навантажень масштабів тера-, або навіть петабайтних рівнів. Вона об’єднує ключові обчислювальні можливості, зокрема AI GPU/AI ASIC, високопродуктивну мережеву архітектуру та модулі рідинного охолодження в єдину систему AI-обчислювальної інфраструктури, щоб ефективно тренувати великі мовні моделі (LLM) або виконувати величезні AI-робочі навантаження на основі великих моделей.

Також дві компанії повідомили, що ці комутатори для вертикального масштабування використовуватимуть мережеві чипи з найсучаснішою архітектурою, щоб забезпечити високошвидкісну взаємодію «всередині» майбутньої екосистеми між AI GPU наступного покоління AMD Instinct MI450 серії, тим самим надаючи передові обчислювальні можливості для інноваційної оптимізації кластерів великомасштабної AI-обчислювальної інфраструктури.

«Рішення Helios рівня rack для AI-обчислювальної інфраструктури представляє новий план/мапу для AI-обчислювальної інфраструктури, який дозволяє клієнтам масово розгортати AI-центри обробки даних, досягаючи сукупних показників продуктивності, ефективності та гнучкості, необхідних для розгортання наступного покоління надзвичайно великих AI-робочих навантажень», — заявив виконавчий віцепрезидент і генеральний менеджер відділу рішень для дата-центрів AMD Forrest Norrod у повідомленні.

Дві компанії зазначили, що вони співпрацюють, щоб підтримати Helios у форматі one-click ефективного розгортання на платформах хмарних обчислень, в корпоративних середовищах та в масштабних науково-дослідних умовах. Завдяки останнім новинам про спільне просування Helios щодо нарощування виробничих потужностей у понеділок після закриття біржі в США акції Celestica зросли приблизно на 3%, а акції AMD зокрема зростали понад 3%, у підсумку завершивши зростанням на 1,7%.

За інформацією, очікується, що AI-обчислювальна інфраструктура Helios рівня rack-scale від AMD у кінці 2026 року буде поставлена партіями таким великим клієнтам хмарних обчислень, як Microsoft, Amazon та ін.

Сильне поєднання сил для протидії «Nvidia Blackwell系»

Коли AMD разом із Celestica прискорює виведення на ринок rack-scale AI-платформи Helios, це відбувається в той самий час, коли AMD у партнерстві з кількома технологічними лідерами об’єднує зусилля проти вертикально інтегрованих рішень для AI-обчислювальної інфраструктури, які домінує Nvidia. Раніше AMD оголосила про співпрацю з Hiway Technology, Broadcom, з метою масово забезпечувати відкриту та rack-scale AI-обчислювальну інфраструктуру для кластерів високопродуктивних обчислень і великих AI-центрів обробки даних, а також прагнути прискорити прогрес у глобальних дослідженнях «суверенного AI» (Sovereign AI).

Hiway Technology стане одним із перших постачальників систем, які застосують архітектуру rack-scale AI-обчислювального кластеру AMD «Helios», а також AMD і Hiway Technology, спираючись на глибоку співпрацю з лідерами у галузі ASIC та високопродуктивної мережевої інфраструктури — Broadcom, інтегрують спеціально розроблений високопродуктивний модуль розширення комутатора для стійок HPE Juniper Networking (scale-up switch) у середині стійки. Ця велика система для AI-обчислювальних потужностей має на меті спростити розгортання кластерів ще більшого масштабу AI-обчислювальної інфраструктури, а також надати rack-рівневі AI-кластери AMD поза межами лінійки Nvidia Blackwell за більш вигідним співвідношенням ціни та ефективності та енергоефективності.

Helios по суті — це rack-level AI-інфраструктура від AMD як аналог лінійки Nvidia Blackwell NVL72/GB200 NVL72. Обидва підходи беруть як базові будівельні елементи 72 GPU+CPU+швидкісні взаємоз’єднання+рідинне охолодження+інженерію системи на рівні стійки як основу для AI-робочих навантажень, а не розглядають окремий сервер як ключовий продукт. Офіційно AMD визначає Helios як відкриту rack-архітектуру на базі OCP Open Rack Wide, орієнтовану на великомасштабне тренування та інференс; Nvidia ж визначає GB200 NVL72 як рідинно охолоджену rack-рівневу платформу, складену з 36 Grace CPU + 72 Blackwell GPU. Іншими словами, Helios — це не просто «ще одна партія MI450 GPU», а перший раз, коли AMD реально виходить на пряме протистояння системі рівня повної шафи/стійки з NVL72 Nvidia.

Порівняно з попередніми серіями AI GPU від AMD, Helios демонструє дуже суттєвий стрибок продуктивності. Офіційні бенчмарки AMD сформульовані доволі прямолінійно: Helios порівняно з попередньою ітерацією AI-обчислювальної платформи AMD може забезпечити максимально 36-разове зростання продуктивності, і це також означає, що бачення AI-обчислювальної інфраструктури AMD змістилося від «продажу більш потужних GPU одиночної плати» до «продажу цілої AI-фабрики в стійці/шафі», тобто продажу комплексного AI-обчислювального рішення, у якому разом упаковані GPU, CPU, NIC, рідинне охолодження, мережева топологія та ROCm.

Головний продажний аргумент Helios — це пам’ять і відкрите взаємоз’єднання. За офіційною позицією AMD, Helios із 72 GPU може забезпечити до 2.9exaFLOPS FP4, 1.4 exaFLOPS FP8, 31TB HBM4, 1.4PB/s агрегованої пропускної здатності пам’яті та 260TB/s пропускної здатності для scale-up взаємоз’єднань; якщо порівняти з Nvidia GB200 NVL72, Helios демонструє помітно більш агресивні рішення за обсягом пам’яті, первинною пропускною здатністю scale-up та відкритою rack-дизайн-архітектурою, що робить його більш привабливим для тренування/інференсу, чутливого до довгих контекстів, моделей з великою кількістю параметрів і пропускної здатності; AMD навіть публічно заявляла, що ємність пам’яті Helios на 50% більша, ніж у наступної обчислювальної платформи Nvidia — системи Vera Rubin.

Чому AMD обрала Tяньхун технології?

Причина, чому AMD потрібно об’єднати зусилля з Tяньхун технології (Celestica), є дуже практичною: вузьке місце rack-рівневих AI-систем уже полягає не лише в GPU, а в високошвидкісних scale-up комутаторах, інженерії цілого рідинного охолодження/цілої збірки, виробничій досяжності (yield), можливостях постачання та стійкості у ланцюгу постачань.

В офіційній заяві AMD прямо написала, що Celestica в співпраці відповідає за розробку, дизайн і виробництво Helios scale-up networking switches. Ці комутатори базуються на UALoE та безпосередньо визначають, чи зможе кластер MI450 стабільно працювати в умовах великомасштабного AI-кластера. Цінність Celestica полягає не в тому, що вона «виконує контрактну збірку звичайного компонента», а в тому, що вона допомагає AMD закрити найскладнішу частину шляху — перехід від компанії, що виробляє чипи, до компанії, що виробляє системи: тобто реально інженеризувати й продукталізувати архітектуру відкритих обчислювальних кластерів та поставляти її відповідно до вимог hyperscalers (гігантів хмарних обчислень). По суті, це відповідає тій самій логіці індустрії, що й те, як Nvidia в останні роки все сильніше робить акцент на екстремальній синхронізації систем у стійках, високопродуктивної мережі та програмного забезпечення для експлуатації й обслуговування.

Celestica — це компанія з електронних виробничих послуг (EMS/ODM) і постачальник інфраструктурних рішень із штаб-квартирою в Канаді. Вона займається не лише традиційною збіркою обладнання, а й відіграє ключову роль у проєктуванні, виробництві та інтеграції продуктів, пов’язаних з інфраструктурою AI-центрів обробки даних (зокрема мережевих комутаторів, серверів, рішень для стійок рівня rack-scale, високоширокосмугових мережевих компонентів тощо); зі збільшенням масштабів будівництва AI-центрів обробки даних з боку провайдерів хмарних послуг і великих технологічних компаній (таких як Google, Meta, Amazon тощо) попит на високошвидкісне мережеве підключення, кастомізоване обладнання та інтегровані рішення рівня стійок різко зріс. Celestica є ключовим постачальником високопродуктивних мережевих комутаторів, серверів, апаратних модулів, пов’язаних з ASIC/TPU, та інтеграційних сервісів, які необхідні цим великим дата-центрам. Її акції протягом усього 2025 року зросли на 220%.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.27KХолдери:2
    0.00%
  • Рин. кап.:$2.33KХолдери:2
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Закріпити