Сьогоднішня найважливіша подія — конференція NVIDIA GTC, це фактично історія людства у форматі штучного інтелекту.

robot
Генерація анотацій у процесі

Сьогодні найважливіша подія — конференція GTC від NVIDIA, це просто «людська історія» у версії для ШІ.

Дженсон Ху ще навіть не вийшов на сцену, а витік інформації вже такий обсяг, що вистачило б на цілу книгу.

Ваньвань підготувала три ключові моменти, тож давай, друзі, ходімо зі мною.

1)Вартість обчислювальної потужності для ШІ одразу знижується вдесятеро

Попереднє покоління Blackwell уже дуже потужне, правда? Невдовзі оголосять про масове виробництво нового покоління чипів Vera Rubin.

У чому «звірячість» Vera Rubin? Якщо по суті — дві речі: дешевше.

Запускаєш той самий AI-модель, кількість чипів скорочується до чверті, а витрати на обчислення для інференсу падають на 90%. Падають на 90%, друзі. AWS, Microsoft і Google — три найбільші хмарні провайдери — прямо в перших рядах сідають у цей поїзд.

2)Groq, за який минулого року заплатили 20 мільярдів доларів, сьогодні здає домашку

Раніше Дженсон Ху на нараді з показниками говорив, що Groq буде підключатися до екосистеми NVIDIA як розширювальна архітектура — так само, як тоді купили Mellanox, щоб доповнити мережеві можливості.

LPU від Groq і GPU від NVIDIA знаходяться в одному й тому самому дата-центрі: GPU розуміє задачу, а LPU швидко видає відповідь.

Коли ці два типи чипів працюють разом, затримка в сценаріях для Agent одразу «падає» вниз.

AI Agent робить роботу замість людей: один і той самий задачний процес може кілька разів підкручувати модель — десятки раундів. І кожен раунд — це спалювання інференсних обчислень, а користувач тим часом чекає; якщо буде повільніше — отримаєш розвалену взаємодію.

Інференс розділений на два кроки: спочатку зрозуміти твоє запитання, а потім слово за словом «вивергати» відповідь.

GPU добре справляється з першим кроком, але швидкість і стабільність «висловлювання» на другому кроці — сильніша сторона LPU від Groq.

20 мільярдів — це дорого?

Подумай: у майбутньому кожна компанія запускатиме сотні Agent, а кожен Agent щодня налаштовуватиме модель тисячі разів.

3)Запускається OpenClaw від NVIDIA, який називається NemoClaw

Це набір відкритих платформ: підприємства ставлять його й можуть розгортати AI-працівників, щоб замінювати людей у процесах — обробляти дані, керувати проєктами. Кажуть, що вже ведуть переговори з Salesforce та Adobe.

Цікаво інше: NemoClaw не вимагає, щоб ти використовував чипи NVIDIA. Ти лиш подумай над цією логікою. Продаж чипів дає прибуток лише на рівні «заліза», а щоб заробити на всьому ланцюжку, треба встановлювати правила. Дженсон Ху цю арифметику порахував дуже чітко.

4)Дженсон Ху каже, що покаже «чип, якого світ ще ніколи не бачив»

Найімовірніше, вперше на публіку вийде Feynman — архітектура для наступного, наступного покоління, її запуск у масове виробництво у 2028 році, а технологічний процес на TSMC — найсучасніший 1,6 нм.

Окрім того, є ще один «поза сценарієм» матеріал, який мені здається дуже цікавим.

NVIDIA випустила процесори для ноутбуків — дві моделі, з упором на ігри. Ті, хто продає відеокарти, йдуть забирати собі їжу з тарілки CPU.

Я відчуваю: Ваньвань, у майбутньому Дженсон Ху стане легендарним великим лідером одного покоління.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити