Google Ironwood TPU: у 10 разів вища продуктивність + чотири партнери протистоять Nvidia

Згідно з глибоким репортажем Bloomberg та офіційним оголошенням Google, 22 квітня Google офіційно розширює власну лінійку AI-чипів: спеціалізований для інференсу Ironwood (шосте покоління TPU) повністю постачається на Google Cloud, а також одночасно стартує співпраця наступного покоління з партнерами Broadcom, MediaTek, Marvell, Intel. Мета — позитивно кинути виклик домінуванню Nvidia на ринку обчислювальної потужності для ШІ за рахунок ланцюга постачання кастомних чипів.

Ironwood: сьоме покоління TPU, вперше — чипи, створені спеціально для інференсу

Ironwood — це сьоме покоління продуктів лінійки Google TPU, а також перший чип, розроблений спеціально для інференсу в межах стратегії «розділення тренування та інференсу». Розкриті Google специфікації: пікова продуктивність одного чипа в 10 разів вища, ніж у TPU v5p, 192GB HBM3E пам’яті, пропускна здатність пам’яті — 7.2 TB/s; один superpod може масштабуватися до 9,216 рідинно охолоджених Ironwood, а сумарний обсяг обчислень FP8 досягає 42.5 exaflops.

Офіційно Google заявляє, що Ironwood вже «повністю відкритий для використання клієнтами Google Cloud», а обсяги відвантажень цього року, як очікується, досягнуть «рівня мільйона чипів». Anthropic пообіцяла використовувати до 1 млн Ironwood TPU; Meta натомість підписала «багаторічний контракт на десятки мільярдів доларів» для використання TPU через Google Cloud.

Розподіл між чотирма партнерами: тренування — Broadcom, інференс — MediaTek

Постачальницький ланцюг чипів наступного покоління від Google має чіткий розподіл ролей:

партнер позначення роль особливості Broadcom Sunfish для тренування спеціально Продовжує чинні партнерства щодо TPU, керує великими вузлами тренування MediaTek (聯發科) Zebrafish для інференсу спеціально Заявляє, що рішення на 20–30% дешевше, ніж варіант Broadcom Marvell у процесі переговорів Блок обробки пам’яті (MPU) + додатковий інференс TPU для оптимізації під HBM та inference Intel не розкрито бере участь у дизайні Підсилення розподілу ризиків у ланцюгу постачання

Це перша в індустрії ШІ модель із «паралельною роботою чотирьох партнерів і чітким розподілом між тренуванням та інференсом». Google через диверсифікацію ризиків IP та конкурентне торгування ціною уникає структури залежності від одного постачальника. Дорожня карта простягається до кінця 2027 року для TPU v8, які вироблятимуться на потужностях TSMC за 2nm техпроцесом.

Стратегічний зміст: кинути виклик Nvidia має не один чип, а ланцюг постачання

За останні три роки ринок AI-чипів майже монополізувала Nvidia: екосистема CUDA та подвійний бар’єр — H100/GB200 чипи. Залізо Ironwood від Google та стратегія з чотирма партнерами не орієнтовані на мету «перевершити за одним конкретним параметром», натомість копіюють логіку Nvidia в індустрії — «стандартизована платформа + закупівлі багатьма клієнтами»: щоб TPU був не лише для власного використання Google, а як комерційний варіант обчислювальної потужності, яким можуть користуватися основні AI-компанії на кшталт Anthropic та Meta.

Значення обіцянки Anthropic на 1 млн TPU особливо важливе: це найбільша обчислювальна потужність, яку зобов’язується надати окрема AI-компанія поза межами Nvidia. Вона доповнює домовленості Anthropic 4/20 та Amazon про 5GW/100 млрд AWS-проєкту — з одного боку прив’язка до AWS Trainium, з іншого — до Google TPU. Стратегія «два кастомні чипи» від Anthropic знижує залежність від Nvidia. Meta ж уперше публічно включила TPU до власних AI робочих навантажень для тренування/інференсу, формуючи ще один сигнал.

Реакція ринку та взаємозв’язок із індустрією

До цього розкриття MediaTek уже вважали «вигодонабувачем кастомних чипів Google», а поява в інфопросторі коду Zebrafish уперше напряму внесла MediaTek у список партнерів з дизайну Google inference-чипів. Це продовжує сюжетну лінію про «не-Nvidia альянси» найближчим часом: AMD × GlobalFoundries (кремнієва фотоніка) та Marvell × Google (MPU).

У той самий період у Nvidia все ще є підтримка з боку GB200 та платформи наступного покоління Rubin, але обчислювальна комбінація клієнтської сторони зміщується з формату «все Nvidia» до паралельної трьохсмугової моделі «Nvidia + TPU + AWS Trainium». Це також означає, що для потужностей TSMC за 2nm у черзі стоять Google, Nvidia, Apple та Amazon як чотири головні клієнти, а переговорна сила виробника щодо ціни за контрактами на виробництво зростає.

Ця стаття «Google Ironwood TPU: 10-кратна ефективність + чотири партнери проти Nvidia» вперше з’явилася в Ланцюжкових новинах ABMedia.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити