Жарт про "дві книги для тренування ШІ" якраз і показує, що саме обчислювальна потужність є ключовою.

robot
Генерація анотацій у процесі

Цей жарт у зворотний бік викриває марення «надспрощених даних»

Ілон Маск пожартував, що Grok навчали за допомогою «ось лише дві книжки», «справу зроблено» — типовий підкол у стилі Маска. Він висміює саме ту ілюзію, що нібито можна створити конкурентоспроможний ШІ без колосальних обчислювальних ресурсів. Реальність полягає в тому, що xAI просуває навчання на величезному GPU-кластерах. Які саме дві книжки він не назвав (і, зрештою, це насправді неважливо), але сенс цілком однозначний: у сфері, де й далі панує «закон масштабу», він глузує з надмірно спрощених наративів.

Цей допис у соцмережі спричинив поляризовану реакцію. Одні сприйняли його як натяк на ефективне навчання; інші ж розгледіли, що це більше схоже на відвертання уваги — насправді xAI в процесі масштабно просуває навчання підкріплення на власній інфраструктурі Colossus. Бали Grok (наприклад, Grok 3 Think на AIME здобув 93.3%) походять від обчислювальної потужності та навчальної парадигми, а не від того, що «прочитали дві м’які обкладинки».

  • Багато людей неправильно прочитали цей жарт: чимало відповідей сприйняли це як сигнал прориву в ефективності даних. Це не так. Оприлюднена xAI методологія — це розширення RL навколо здібностей до міркування, а не стиснення навчальних даних.
  • Серйозні експерти не підхопили: через брак відгуку з боку топових дослідників на кшталт Karpathy та LeCun «надспрощені дані» не змогли вийти за межі теми. Одна-єдина публікація без перевірки не здатна зрушити консенсус у галузі.
  • Бенчмарки пояснюють краще: Grok попереджає на GPQA (84.6%) і LiveCodeBench (79.4%) — і це слід віднести до ефективності, що виникає завдяки базовій інфраструктурі: приблизно 6-кратне покращення ефективності означає більш ефективне розгортання FLOPs, а не роботу за принципом «читати менше книжок».

Перемагають обчислення, а «дані до мінімуму» не витримують критики

Поширення цього допису виявило розрив між гаслом, яке легко стає вірусним («лише дві книжки!»), і «важелем, що насправді створює сильну модель» (масштабне навчання на надвеликих кластерах). У міру того як зовнішні спостерігачі дедалі пильніше розглядають коректність навчальних даних і витоки — наприклад, Stanford нещодавно задокументував явище відтворення моделями авторськоправно захищених романів — це стає ще важливішим.

xAI позиціонує Grok 4 як найвищий рівень агентного міркування, якого досягають шляхом застосування RL до масштабу попереднього навчання. На відміну від більш обережних шляхів OpenAI та Anthropic, xAI одночасно підколює «ефективністю» і фактично постачає мультимодальні інструменти. Інтерпретувати цей допис як «відкритий код» або «революцію ефективності» — це радше емоційні очікування: основна частина 6 мільярдів доларів у раунді C xAI здебільшого спрямована на інфраструктуру, а не на «спрощення датасетів до нуля».

Це також створює невідповідність між ціноутворенням і наративом. Якщо ринок надмірно фокусується на ефективності витрат, він легко ігнорує більшу вагу обчислювального «рівчака» — оборонного бар’єра. У xAI є відносна перевага в інфраструктурі; компанії на кшталт Meta, якщо не зможуть отримати рівноцінні масштаби RL і навчальних обчислень, можуть відставати в глибині міркування.

Табір Що вони побачили Вплив на розуміння галузі Оцінка
Прихильники надспрощення Піднесли жарт «2 книжки» як підтвердження ефективного навчання Підсилює очікування незалежних розробників, що «закон масштабу можна обійти» Перебільшують — ігнорують жорсткі обмеження порога обчислювальних ресурсів для команд, яким бракує фінансування
Практики масштабу Зосереджуються на кластері Colossus xAI та маршруті RL для Grok 3/4 Підсилюють консенсус «FLOPs важливіші за трюки з даними»; корпоративним клієнтам більше подобається постачальник із високими обчисленнями Ближче до реальності — переваги xAI на корпоративному боці недооцінені ринком
Обережні Помічають брак експертного підтвердження, а також слабкий зв’язок із бенчмарками на кшталт ARC-AGI-2 (Grok 4 має 15.9%) Уникають помилкового коригування інвестиційних припущень через хитання наративу Раціональна стриманість — ризик інвестиційної «пухирчастості» через наратив досить високий
Аналітики конкурентів Порівнюють інтеграцію інструментів у Grok API та проблеми галюцинацій конкурентів (у версії 4.1 є покращення) Прискорюють позиціонування в бій; мультимодальний тиск від xAI, зокрема голос/відео, «передається» конкурентам xAI розширює розрив; Anthropic може бути обмежений у темпах розгортання RL

Висновок: справжня змінна, яку приховує цей жарт, — це лідерство xAI в обчисленнях. Ті, хто не перейшов на масштабоване RL, уже відстали; інвестори, які роблять ставку на обчислення та інфраструктурний «рів» оборони, перебувають на ранній стадії; корпоративні покупці зараз застосовують агентні інструменти Grok і, ймовірно, матимуть перевагу над опонентами, які й далі вірять у міф про «надспрощені дані».

Важливість: середня
Категорія: Технічні інсайти, галузеві тренди, вплив на ринок

Оцінка: зараз настав момент зайти в цей наратив: для тих, хто робить ставку на фінансування обчислень і базову RL-інфраструктуру, це є «перевагою на старті», а для будівельників, які все ще дотримуються маршруту «дані до мінімуму», це вже «пізнувато». Найбільшу практичну вигоду отримають ті, хто керує або підключається до масштабних GPU-кластерів і RL-інженерного стеку: інфраструктурні будівельники та фонди на середньо- й довгострокову перспективу отримають найбільше, а корпоративні покупці, готові вже зараз розгортати агентний інструментарій Grok, також будуть у виграші; короткострокові трейдери мають обмежену маргінальну перевагу, якщо лише немає чіткого каталізатора у вигляді доступної обчислювальної потужності.

GROK-3,93%
XAI-1,21%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити