На початку травня, у 90-денний період призупинення тарифів, раптово загострилася боротьба за основні ресурси обчислювальної потужності.
"Ціни на сервери коливаються дуже сильно, нещодавно ціна на кожен зросла на 15%-20%. З урахуванням призупинення мит, ми плануємо відновити продаж за первісною ціною." - повідомив постачальник чіпів з південного регіону.
Водночас, ринкова пропозиція також отримала нові змінні. Tiger Sniff отримав ексклюзивну інформацію, що висококласні продукти серії Hooper від NVIDIA та серії Blackwell вже тихо з'явилися на внутрішньому ринку, причому перший з'явився приблизно в вересні 2024 року, а другий стався нещодавно. Керівники Huari Intelligent Computing зазначили: "Канали отримання товарів у різних постачальників різняться." А складна мережа постачання за цим не підлягає вивченню.
(Примітка Tiger Sniff: з 17 жовтня 2023 року Вашингтон поступово зупинив продаж чіпів Nvidia в Китай, включаючи A100, A800, H800, H100, H200; нещодавно останній чіп серії Hooper, який міг бути проданий в Китай - H20, також потрапив до списку обмежень на експорт)
Зокрема, висококласна серія Hooper від NVIDIA зазвичай означає H200, який є вдосконаленою версією чіпа H100, при цьому перший коштує лише на кілька сотень тисяч більше, але ефективність вища на 30%. Серія Blackwell належить до висококласних продуктів NVIDIA, зокрема, B200, ціна якого перевищує 3 мільйони, є найсуворішим продуктом з обмеженим обігом, а його маршрути обігу ще більш секретні. Обидва ці продукти використовуються для попереднього навчання великих моделей, а B200 є особливо складним для отримання.
Повертаючись до часової лінії, квітень 2024 року, фотографія генерального директора NVIDIA Дженсена Хуана з Олтиманом (Sam Altman) та співзасновником OpenAI Грегом Брокманом (Greg Brockman) поширилася в Twitter. Ця спільна фотографія пов'язана з ключовими термінами доставки перших продуктів H200 - генеральний директор NVIDIA Дженсен Хуан особисто доставив їх, а OpenAI є першим користувачем H200.
Лише через 5 місяців з-за океану надійшли новини про постачання H200. Наразі в країні вже є постачальники, які можуть забезпечити 100 серверів H200 щотижня. За словами цього постачальника, у зв'язку з призупиненням виробництва H100 ринковий попит швидко переходить на H200, наразі постачальників, які мають доступ до H200, не більше десяти, що подальше розширює розрив між попитом та пропозицією.
“Зараз на ринку найбільше не вистачає H200, і, наскільки я знаю, одна хмарна компанія нещодавно шукає H200 в різних місцях.” – сказав гравець з 18-річним досвідом у галузі обчислювальної потужності, який надає послуги обчислювальної потужності для Baidu, Alibaba, Tencent та ByteDance.
У цій гонці озброєнь обчислювальних потужностей ланцюжок транзакцій оповитий таємницею. За словами провідного вітчизняного постачальника обчислювальних потужностей, переважаюче в галузі правило ціноутворення на обчислювальну потужність полягає в тому, що в контракті маркується тільки обчислювальний блок потужності «P», який перетворює транзакцію сервера в абстрактну транзакцію обчислювальної потужності. Наприклад, коли користувач обчислювальних потужностей і постачальник обчислювальної потужності проводять транзакцію з отримання обчислювальної потужності, модель карти не буде безпосередньо записана в контракт, але обчислювальна потужність того, скільки P буде використано замість неї, тобто конкретна модель карти не буде записана в світлій стороні.
Заглибившись у нижні ланки промислового ланцюга, таємна мережа торгівлі сплила на поверхню. Раніше ЗМІ повідомляли, що частина китайських дистриб'юторів через спеціальні канали закупівлі, шляхом багатошарового перепродажу та упаковки, реалізували сервери "кривими шляхами". А "Ху Сю" дізнався, що деякі дистриб'ютори обрали інший шлях, використовуючи третіх осіб, шляхом вбудовування модулів у продукти, щоб отримати сервери.
За лаштунками індустріального ланцюга, що перебуває в стані напруги, розвиток внутрішньої індустрії обчислювальної потужності також демонструє нові тенденції.
01 Звідки виникає інтелектуальна бульбашка?
В кінці 2023 року з-за океану надійшла "заборона NVIDIA", яка впала на спокійну поверхню озера, і внаслідок цього розпочалася таємна боротьба за основні ресурси обчислювальної потужності.
У перші кілька місяців ринок демонстрував примітивний хаос і неспокій. Під спокусою величезних прибутків деякі особини з гострим нюхом починали ризикувати. «У той час ринок був переповнений «постачальниками» з усіх верств суспільства, від іноземних студентів, які поверталися з-за кордону, до добре поінформованих людей», — згадувало одне джерело в галузі, яке не захотіло називати своє ім'я. ”
Ці ранні "первопрохідці" використовували інформаційні розриви та різні неформальні канали для постачання висококласних відеокарт Nvidia на ринок. Таким чином, ціни на відеокарти, звичайно, зросли. За деякими повідомленнями ЗМІ, серед них деякі особисті постачальники навіть призначили ціну на відеокарту Nvidia A100 в 128 000 юанів, що значно перевищує її приблизну офіційну роздрібну ціну в 10 000 доларів США. Більше того, хтось у соціальних мережах тримав чіп H100, стверджуючи, що його ціна сягає 250 000 юанів. У той час всі ці дії та позиції можна було б вважати майже вихвалянням.
Під цим прихованим обігом деякі великі постачальники обчислювальної потужності вже почали мати подібні торгові мережеві канали, а викликаний цим бум розумних обчислень також виникає в той же період. У 2022-2024 роках у багатьох місцях активно будуються центри розумних обчислень. Є дані, що лише в 2024 році проекти центрів розумних обчислень перевищили 458.
Проте, ця шалена "торгівля картами та бум інтелектуальних обчислень" не тривала довго. До кінця 2024 року, особливо після появи таких вітчизняних моделей, як DeepSeek, які відзначилися високою вартістю-вигодою, деякі постачальники потужностей, що покладалися виключно на "зберігання карт" або які не мали технологічної основи, виявили, що їхні історії стають все важче розповідати. Бульбашка інтелектуальних обчислень також почала демонструвати ознаки лопання.
Згідно з даними статистики, у першому кварталі 2025 року в материковому Китаї з'явилося 165 нових проектів центрів інтелектуальних обчислень, з яких 58% (95 проектів) все ще перебувають у стані затвердження або підготовки, ще 33% (54 проекти) в стадії будівництва або незабаром запустяться, а насправді запущено або проходить пробну експлуатацію лише 16 проектів, що становить менше 10%.
Звичайно, ознаки лопання бульбашки проявляються не лише в країні. За останні півроку Meta, Microsoft та інші повідомили про призупинення частини глобальних проектів з дата-центрів. Іншою стороною бульбашки є тривожна неефективність та бездіяльність.
Деякі експерти галузі повідомили Tiger Sniff: "Наразі коефіцієнт використання обчислювальних центрів недостатній, менше 50%, а вітчизняні чіпи через недоліки в продуктивності взагалі не можуть використовуватися для попереднього навчання. Крім того, деякі обчислювальні центри використовують відносно застарілі сервери."
Цей феномен "картка, що не використовується", галузеві фахівці пояснюють як "структурне невідповідність" — це не абсолютний надлишок обчислювальної потужності, а недостатня пропозиція ефективної обчислювальної потужності, здатної задовольнити високі вимоги, при цьому велика кількість вже збудованих обчислювальних ресурсів не може бути повністю використана через технічну застарілість, незавершеність екосистеми або недостатні операційні можливості.
Проте, на карті розумних обчислень, де переплітаються галас і тривога, технологічні гіганти демонструють абсолютно різні позиції.
За повідомленнями, ByteDance планує вкласти понад 12,3 мільярда доларів США (приблизно 89,2 мільярда юанів) у технологічну інфраструктуру штучного інтелекту до 2025 року, з яких 40 мільярдів юанів буде використано для закупівлі чіпів ШІ в Китаї, а ще приблизно 50 мільярдів юанів планується витратити на придбання чіпів NVIDIA. У відповідь на це, представники ByteDance заявили Hu Xiu, що інформація є неточною.
Також у сфері штучного інтелекту значні інвестиції зробила Alibaba. Генеральний директор У Веньмінг 24 лютого публічно оголосив, що впродовж наступних трьох років Alibaba планує інвестувати 380 мільярдів юанів у будівництво інфраструктури штучного інтелекту. Ця цифра навіть перевищує загальну суму за останні десять років.
Але перед обличчям великих закупок, тиск з боку постачання також стає очевидним. "Постачання на ринку навіть не встигає забезпечити великі компанії, багато компаній підписали контракти, але не можуть виконати поставки." - сказав один з продавців постачальника розумних обчислень виданню Huxiu.
У порівнянні, вищезазначений бульбашка інтелектуальних обчислень і нинішні великі інвестиції великих компаній у інфраструктуру ШІ, здається, контрастують один з одним: з одного боку, постачальники обчислювальної потужності, очолювані A-акціями, масово зупиняють великі проекти інтелектуальних обчислень, з іншого боку, великі компанії активно інвестують в інфраструктуру ШІ.
А причина цього не є складною для розуміння. Адже момент різкого зниження попиту на інтелектуальні обчислення збігся з часом навколо DeepSeek. З початку цього року більше ніхто не згадував концепцію "бою ста моделей", DeepSeek розбив міф про потребу в навчанні. Тепер на столі залишилися лише великі компанії та окремі компанії з AI моделей.
У зв'язку з цим керуючий партнер Changlei Capital Фен Бо також заявив Tiger Sniff: «Коли навчання не буде повне квітів, ті, хто дійсно має здібності і кваліфікацію тренуватися, будуть продовжувати купувати карти для тренувань, такі як Ali і Byte, а ті, хто не здатний тренуватися, будуть розкидані, а обчислювальна потужність в руках цих людей перетвориться на мильну бульбашку». ”
02 Відхилена потужність
Будь-яке "бульбашка" виникає з ірраціонального уявлення людини про дефіцит. Ті, хто спекулює на Маотай та накопичує обчислювальні потужності, самі по собі не є шанувальниками Маотай або споживачами обчислювальних потужностей, а мають спільну спекулятивну психологію.
До кінця 2024 року та в першому кварталі 2025 року компанії, такі як Feilixin, Lianhua Holding, Jinji Co., та інші, послідовно припинили кілька контрактів на оренду обчислювальної потужності на кілька мільярдів юанів. Тим часом, один з постачальників обчислювальної потужності сказав Hu Xiu: "У бізнесі оренди обчислювальної потужності повернення є звичайною справою."
Ці розірвані договори оренди не є реальними терміналами споживання обчислювальної потужності. У зв'язку з галузевими потрясіннями, викликаними DeepSeek, бульбашка індустрії штучного інтелекту поступово лопнула, і багатьом постачальникам обчислювальної потужності доводиться стикатися з проблемою надлишку обчислювальної потужності, шукаючи стабільних клієнтів всюди та досліджуючи нові способи споживання обчислювальної потужності.
У ході розслідування Tiger Sniff з'ясував, що візитну картку засновника постачальника обчислювальної потужності, крім трьох підприємств у сфері інтелектуальних обчислень та хмарних обчислень, надрукувала ще й інвестиційна компанія. Подальші розкопки виявили, що інвестовані проєкти інвестиційної компанії охоплюють компанію з робототехніки та компанію, що спеціалізується на дослідженні та розробці великих моделей і хмарних систем. Засновник розповів Тайгеру Сніффу: «Усі потреби цих двох інвестованих компаній у обчислювальній потужності задовольняються їхньою власною системою обчислювального енергопостачання; Крім того, портфельні компанії зазвичай купують власні обчислювальні потужності за низькими ринковими цінами. “
Насправді, у індустрії інтелектуальних обчислень форма прив'язки інвестицій до інтелектуальних обчислень зовсім не є унікальною. Для багатьох постачальників обчислювальної потужності це "найзручніший спосіб використання споживчих карт, просто це не було винесено на поверхню", - сказав Фенг Бо виданню Hu Xiu.
Проте, у вищезгаданій історії це шлях споживання обчислювальної потужності «монопольного» типу, тобто постачальники обчислювальної потужності інвестують для закріплення попиту на обчислювальну потужність та безпосередньо задовольняють усі потреби в обчислювальній потужності інвестованих проектів. Але це не єдиний спосіб.
Фенг Бо вважає, що існує ще одна модель: «модель, в якій постачальники обчислювальної потужності входять у промислові фонди під статусом LP, варта уваги, оскільки вона створює замкнутий ланцюг попиту на обчислювальну потужність.»
Зокрема, бізнес-модель представляє характеристики зв'язку з капіталом: постачальник обчислювальної потужності А, як потенційний партнер з обмеженою відповідальністю (LP), досягає наміру співпраці з галузевим фондом Б. В інвестиційному ландшафті Фонду Б постачальник додатків штучного інтелекту C, як компанія, що є об'єктом інвестицій, має жорсткий попит на обчислювальні ресурси для розвитку свого бізнесу. У цей час А опосередковано пов'язує майбутні потреби компанії С у закупівлі обчислювальної потужності через стратегічні інвестиції у фонд Б, створюючи замкнутий цикл «капітальних інвестицій – закупівля обчислювальної потужності».
Якщо угода буде здійснена, компанія A отримає пріоритетне право на обслуговування завдяки статусу LP і стане обраним постачальником потужностей для компанії C. Ця модель по суті формує циклічний обіг коштів — внесок компанії A у фонд B врешті-решт повертається через закупівлю потужностей компанією C.
!
“Це не є основним способом, але це досить зручний спосіб.” Фенг Бо зізнався.
03Бульбашка ось-ось лусне, а далі що?
“Обговорюючи роздуми про інтелектуальні обчислення, не можна говорити лише про обчислювальну потужність, це питання промислового ланцюга. Щоб використовувати обчислювальну потужність, потрібно з'єднати розірвані точки, наразі цей промисловий ланцюг ще не утворив замкнуте коло.” Один з головних маркетологів постачальника обчислювальної потужності, який багато років працює в галузі, чітко вказав на основну проблему сучасної індустрії інтелектуальних обчислень.
У першій половині 2025 року в сфері штучного інтелекту одним із помітних трендів є те, що слово "попереднє навчання", яке раніше було на вустах у всіх великих компаній штучного інтелекту, поступово замінюється терміном "висновок". Незалежно від того, чи йдеться про широкий споживчий ринок C, чи про надання можливостей підприємствам B у різних галузях, крива попиту на висновки виглядає надзвичайно крутою.
«Виходячи з обсягу основних додатків штучного інтелекту на поточному ринку, таких як Doubao і DeepSeek, наприклад, припускаючи, що кожен активний користувач генерує в середньому 10 зображень на день, потреба в обчислювальній потужності, що стоїть за цим, може легко досягти рівня в мільйон петабайт». Це лише одна сцена генерації зображення, і якщо мультимодальні взаємодії, такі як текст, голос і відео, є надмірними. ”
Це лише потреби в інференції для кінцевих користувачів. Щодо користувачів бізнесу, потреби в інференції є ще більш масштабними. Один з керівників Huari Zhiku сказав Huxiu, що автомобільні заводи починають будівництво центрів інтелектуальних обчислень з масштабів у тисячі P, "і серед наших клієнтів, крім великих виробників, найбільші потреби в обчислювальних потужностях мають саме автомобільні заводи."
Однак, якщо пов'язати величезний попит на інференцію з бульбашкою обчислювальної потужності, історія виглядає надзвичайно абсурдною. Чому такий великий попит на інференцію все ще призводить до бульбашки обчислювальної потужності?
Один з постачальників обчислювальної потужності повідомив Huxiu, що такі величезні вимоги до інференції потребують від постачальників інтелектуальних обчислень оптимізації обчислювальної потужності за допомогою інженерних технологій, таких як зменшення часу запуску, збільшення обсягу пам'яті, скорочення затримки інференції, підвищення пропускної здатності та точності інференції тощо.
Не тільки це, але й проблема дисбалансу попиту та пропозиції, згадана вище, значною мірою пов'язана з проблемами з чіпами. З цього приводу деякі інсайдери з галузі повідомили HuXiu, що різниця між деякими вітчизняними картами та картами NVIDIA все ще досить велика, їхні власні показники розвитку нерівномірні, і навіть якщо в межах одного бренду накопичити багато карт, недоліки все ще залишаються, що призводить до того, що окремий кластер не може ефективно завершити навчання та висновки AI.
Цей «ефект короткої дошки» означає, що навіть якщо створити кластери обчислювальної потужності шляхом масованого складання чіпів, якщо проблема короткої дошки не буде ефективно вирішена, загальна ефективність всього кластера залишиться обмеженою, і буде важко ефективно підтримувати складне навчання та масштабні завдання інференції великих AI-моделей.
Насправді, інженерні виклики на рівні обчислювальної потужності та чіпові обмеження дійсно є серйозними, але багато глибоких потреб в обчислювальній потужності не були ефективно задоволені, і справжня "точка розриву" часто виникає в екосистемі застосувань вище рівня обчислювальної потужності, особливо в серйозному дефіциті вертикальних моделей L2 (тобто для конкретних галузей або ситуацій).
У медичній індустрії існує величезна "діра", яку потрібно заповнити, ефект всмоктування талантів є структурною проблемою, яка довгий час критикувалася в національній медичній системі, адже відмінні лікарі зосереджені в лікарнях трьох рівнів у великих містах. Але коли галузь сподівається на великі медичні моделі для досягнення якісного медичного ресурсного розподілу, виникає ще більш фундаментальний виклик: як побудувати надійний простір медичних даних?
Оскільки потрібно навчити великий модель для лікування всіх етапів захворювань, дані є ключовою передумовою. Але проблема в тому, що необхідно мати величезну кількість даних, що охоплюють усі етапи захворювання, всі вікові групи, всі статі та всі регіони, щоб сформувати знання в великій моделі. А реальність полягає в тому, що рівень відкритості медичних даних становить менше 5%.
Керівник інформаційного відділу одного з трьох найкращих лікарень розповів, що з 500 ТБ лікувальних даних, які генеруються щороку в його лікарні, справжніми даними, що можуть бути використані для навчання ШІ, є менше 3% анонімізованих структурованих даних. Ще більш серйозною є ситуація з рідкісними та хронічними захворюваннями, які становлять 80% вартості хвороб, оскільки через їхню чутливість вони протягом тривалого часу залишаються в "островах даних" різних медичних установ.
А такі розриви не можуть бути вирішені, ланцюг постачання не зможе сформувати замкнене коло. Попит на обчислювальну потужність, природно, не буде задоволений, і, очевидно, це вже давно виходить за межі традиційного розуміння тих постачальників інфраструктури обчислювальної потужності, які лише пропонують "картки та електрику".
Проте сьогодні на ринку вже з'явилась група нових постачальників обчислювальних послуг, які тихо зростають. Ці компанії більше не обмежують себе лише постачанням апаратного забезпечення або орендою обчислювальної потужності, вони також можуть створювати професійні алгоритмічні команди та команди галузевих експертів, глибоко залучаючись до процесу розробки та оптимізації AI-додатків для клієнтів.
Водночас, стикаючись з різними проблемами, такими як невідповідність ресурсів і використання обчислювальної потужності, різні регіони насправді також впроваджують різноманітні політики субсидій на обчислювальну потужність відповідно до місцевих потреб у промисловості. Серед них "квитки на обчислювальну потужність" є прямим способом зниження витрат підприємств на використання обчислювальної потужності. Однак для поточного етапу китайської інтелектуальної обчислювальної промисловості, простих "швидких ліків" у вигляді політики, напевно, вже недостатньо, щоб кардинально змінити ситуацію.
Сьогодні індустрії штучного інтелекту необхідна екосистема, яка забезпечує "кровотворення".
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Велика бульбашка, спричинена NVIDIA, ось-ось лусне
Джерело: AGI інтерфейс
На початку травня, у 90-денний період призупинення тарифів, раптово загострилася боротьба за основні ресурси обчислювальної потужності.
"Ціни на сервери коливаються дуже сильно, нещодавно ціна на кожен зросла на 15%-20%. З урахуванням призупинення мит, ми плануємо відновити продаж за первісною ціною." - повідомив постачальник чіпів з південного регіону.
Водночас, ринкова пропозиція також отримала нові змінні. Tiger Sniff отримав ексклюзивну інформацію, що висококласні продукти серії Hooper від NVIDIA та серії Blackwell вже тихо з'явилися на внутрішньому ринку, причому перший з'явився приблизно в вересні 2024 року, а другий стався нещодавно. Керівники Huari Intelligent Computing зазначили: "Канали отримання товарів у різних постачальників різняться." А складна мережа постачання за цим не підлягає вивченню.
(Примітка Tiger Sniff: з 17 жовтня 2023 року Вашингтон поступово зупинив продаж чіпів Nvidia в Китай, включаючи A100, A800, H800, H100, H200; нещодавно останній чіп серії Hooper, який міг бути проданий в Китай - H20, також потрапив до списку обмежень на експорт)
Зокрема, висококласна серія Hooper від NVIDIA зазвичай означає H200, який є вдосконаленою версією чіпа H100, при цьому перший коштує лише на кілька сотень тисяч більше, але ефективність вища на 30%. Серія Blackwell належить до висококласних продуктів NVIDIA, зокрема, B200, ціна якого перевищує 3 мільйони, є найсуворішим продуктом з обмеженим обігом, а його маршрути обігу ще більш секретні. Обидва ці продукти використовуються для попереднього навчання великих моделей, а B200 є особливо складним для отримання.
Повертаючись до часової лінії, квітень 2024 року, фотографія генерального директора NVIDIA Дженсена Хуана з Олтиманом (Sam Altman) та співзасновником OpenAI Грегом Брокманом (Greg Brockman) поширилася в Twitter. Ця спільна фотографія пов'язана з ключовими термінами доставки перших продуктів H200 - генеральний директор NVIDIA Дженсен Хуан особисто доставив їх, а OpenAI є першим користувачем H200.
Лише через 5 місяців з-за океану надійшли новини про постачання H200. Наразі в країні вже є постачальники, які можуть забезпечити 100 серверів H200 щотижня. За словами цього постачальника, у зв'язку з призупиненням виробництва H100 ринковий попит швидко переходить на H200, наразі постачальників, які мають доступ до H200, не більше десяти, що подальше розширює розрив між попитом та пропозицією.
“Зараз на ринку найбільше не вистачає H200, і, наскільки я знаю, одна хмарна компанія нещодавно шукає H200 в різних місцях.” – сказав гравець з 18-річним досвідом у галузі обчислювальної потужності, який надає послуги обчислювальної потужності для Baidu, Alibaba, Tencent та ByteDance.
У цій гонці озброєнь обчислювальних потужностей ланцюжок транзакцій оповитий таємницею. За словами провідного вітчизняного постачальника обчислювальних потужностей, переважаюче в галузі правило ціноутворення на обчислювальну потужність полягає в тому, що в контракті маркується тільки обчислювальний блок потужності «P», який перетворює транзакцію сервера в абстрактну транзакцію обчислювальної потужності. Наприклад, коли користувач обчислювальних потужностей і постачальник обчислювальної потужності проводять транзакцію з отримання обчислювальної потужності, модель карти не буде безпосередньо записана в контракт, але обчислювальна потужність того, скільки P буде використано замість неї, тобто конкретна модель карти не буде записана в світлій стороні.
Заглибившись у нижні ланки промислового ланцюга, таємна мережа торгівлі сплила на поверхню. Раніше ЗМІ повідомляли, що частина китайських дистриб'юторів через спеціальні канали закупівлі, шляхом багатошарового перепродажу та упаковки, реалізували сервери "кривими шляхами". А "Ху Сю" дізнався, що деякі дистриб'ютори обрали інший шлях, використовуючи третіх осіб, шляхом вбудовування модулів у продукти, щоб отримати сервери.
За лаштунками індустріального ланцюга, що перебуває в стані напруги, розвиток внутрішньої індустрії обчислювальної потужності також демонструє нові тенденції.
01 Звідки виникає інтелектуальна бульбашка?
В кінці 2023 року з-за океану надійшла "заборона NVIDIA", яка впала на спокійну поверхню озера, і внаслідок цього розпочалася таємна боротьба за основні ресурси обчислювальної потужності.
У перші кілька місяців ринок демонстрував примітивний хаос і неспокій. Під спокусою величезних прибутків деякі особини з гострим нюхом починали ризикувати. «У той час ринок був переповнений «постачальниками» з усіх верств суспільства, від іноземних студентів, які поверталися з-за кордону, до добре поінформованих людей», — згадувало одне джерело в галузі, яке не захотіло називати своє ім'я. ”
Ці ранні "первопрохідці" використовували інформаційні розриви та різні неформальні канали для постачання висококласних відеокарт Nvidia на ринок. Таким чином, ціни на відеокарти, звичайно, зросли. За деякими повідомленнями ЗМІ, серед них деякі особисті постачальники навіть призначили ціну на відеокарту Nvidia A100 в 128 000 юанів, що значно перевищує її приблизну офіційну роздрібну ціну в 10 000 доларів США. Більше того, хтось у соціальних мережах тримав чіп H100, стверджуючи, що його ціна сягає 250 000 юанів. У той час всі ці дії та позиції можна було б вважати майже вихвалянням.
Під цим прихованим обігом деякі великі постачальники обчислювальної потужності вже почали мати подібні торгові мережеві канали, а викликаний цим бум розумних обчислень також виникає в той же період. У 2022-2024 роках у багатьох місцях активно будуються центри розумних обчислень. Є дані, що лише в 2024 році проекти центрів розумних обчислень перевищили 458.
Проте, ця шалена "торгівля картами та бум інтелектуальних обчислень" не тривала довго. До кінця 2024 року, особливо після появи таких вітчизняних моделей, як DeepSeek, які відзначилися високою вартістю-вигодою, деякі постачальники потужностей, що покладалися виключно на "зберігання карт" або які не мали технологічної основи, виявили, що їхні історії стають все важче розповідати. Бульбашка інтелектуальних обчислень також почала демонструвати ознаки лопання.
Згідно з даними статистики, у першому кварталі 2025 року в материковому Китаї з'явилося 165 нових проектів центрів інтелектуальних обчислень, з яких 58% (95 проектів) все ще перебувають у стані затвердження або підготовки, ще 33% (54 проекти) в стадії будівництва або незабаром запустяться, а насправді запущено або проходить пробну експлуатацію лише 16 проектів, що становить менше 10%.
Звичайно, ознаки лопання бульбашки проявляються не лише в країні. За останні півроку Meta, Microsoft та інші повідомили про призупинення частини глобальних проектів з дата-центрів. Іншою стороною бульбашки є тривожна неефективність та бездіяльність.
Деякі експерти галузі повідомили Tiger Sniff: "Наразі коефіцієнт використання обчислювальних центрів недостатній, менше 50%, а вітчизняні чіпи через недоліки в продуктивності взагалі не можуть використовуватися для попереднього навчання. Крім того, деякі обчислювальні центри використовують відносно застарілі сервери."
Цей феномен "картка, що не використовується", галузеві фахівці пояснюють як "структурне невідповідність" — це не абсолютний надлишок обчислювальної потужності, а недостатня пропозиція ефективної обчислювальної потужності, здатної задовольнити високі вимоги, при цьому велика кількість вже збудованих обчислювальних ресурсів не може бути повністю використана через технічну застарілість, незавершеність екосистеми або недостатні операційні можливості.
Проте, на карті розумних обчислень, де переплітаються галас і тривога, технологічні гіганти демонструють абсолютно різні позиції.
За повідомленнями, ByteDance планує вкласти понад 12,3 мільярда доларів США (приблизно 89,2 мільярда юанів) у технологічну інфраструктуру штучного інтелекту до 2025 року, з яких 40 мільярдів юанів буде використано для закупівлі чіпів ШІ в Китаї, а ще приблизно 50 мільярдів юанів планується витратити на придбання чіпів NVIDIA. У відповідь на це, представники ByteDance заявили Hu Xiu, що інформація є неточною.
Також у сфері штучного інтелекту значні інвестиції зробила Alibaba. Генеральний директор У Веньмінг 24 лютого публічно оголосив, що впродовж наступних трьох років Alibaba планує інвестувати 380 мільярдів юанів у будівництво інфраструктури штучного інтелекту. Ця цифра навіть перевищує загальну суму за останні десять років.
Але перед обличчям великих закупок, тиск з боку постачання також стає очевидним. "Постачання на ринку навіть не встигає забезпечити великі компанії, багато компаній підписали контракти, але не можуть виконати поставки." - сказав один з продавців постачальника розумних обчислень виданню Huxiu.
У порівнянні, вищезазначений бульбашка інтелектуальних обчислень і нинішні великі інвестиції великих компаній у інфраструктуру ШІ, здається, контрастують один з одним: з одного боку, постачальники обчислювальної потужності, очолювані A-акціями, масово зупиняють великі проекти інтелектуальних обчислень, з іншого боку, великі компанії активно інвестують в інфраструктуру ШІ.
А причина цього не є складною для розуміння. Адже момент різкого зниження попиту на інтелектуальні обчислення збігся з часом навколо DeepSeek. З початку цього року більше ніхто не згадував концепцію "бою ста моделей", DeepSeek розбив міф про потребу в навчанні. Тепер на столі залишилися лише великі компанії та окремі компанії з AI моделей.
У зв'язку з цим керуючий партнер Changlei Capital Фен Бо також заявив Tiger Sniff: «Коли навчання не буде повне квітів, ті, хто дійсно має здібності і кваліфікацію тренуватися, будуть продовжувати купувати карти для тренувань, такі як Ali і Byte, а ті, хто не здатний тренуватися, будуть розкидані, а обчислювальна потужність в руках цих людей перетвориться на мильну бульбашку». ”
02 Відхилена потужність
Будь-яке "бульбашка" виникає з ірраціонального уявлення людини про дефіцит. Ті, хто спекулює на Маотай та накопичує обчислювальні потужності, самі по собі не є шанувальниками Маотай або споживачами обчислювальних потужностей, а мають спільну спекулятивну психологію.
До кінця 2024 року та в першому кварталі 2025 року компанії, такі як Feilixin, Lianhua Holding, Jinji Co., та інші, послідовно припинили кілька контрактів на оренду обчислювальної потужності на кілька мільярдів юанів. Тим часом, один з постачальників обчислювальної потужності сказав Hu Xiu: "У бізнесі оренди обчислювальної потужності повернення є звичайною справою."
Ці розірвані договори оренди не є реальними терміналами споживання обчислювальної потужності. У зв'язку з галузевими потрясіннями, викликаними DeepSeek, бульбашка індустрії штучного інтелекту поступово лопнула, і багатьом постачальникам обчислювальної потужності доводиться стикатися з проблемою надлишку обчислювальної потужності, шукаючи стабільних клієнтів всюди та досліджуючи нові способи споживання обчислювальної потужності.
У ході розслідування Tiger Sniff з'ясував, що візитну картку засновника постачальника обчислювальної потужності, крім трьох підприємств у сфері інтелектуальних обчислень та хмарних обчислень, надрукувала ще й інвестиційна компанія. Подальші розкопки виявили, що інвестовані проєкти інвестиційної компанії охоплюють компанію з робототехніки та компанію, що спеціалізується на дослідженні та розробці великих моделей і хмарних систем. Засновник розповів Тайгеру Сніффу: «Усі потреби цих двох інвестованих компаній у обчислювальній потужності задовольняються їхньою власною системою обчислювального енергопостачання; Крім того, портфельні компанії зазвичай купують власні обчислювальні потужності за низькими ринковими цінами. “
Насправді, у індустрії інтелектуальних обчислень форма прив'язки інвестицій до інтелектуальних обчислень зовсім не є унікальною. Для багатьох постачальників обчислювальної потужності це "найзручніший спосіб використання споживчих карт, просто це не було винесено на поверхню", - сказав Фенг Бо виданню Hu Xiu.
Проте, у вищезгаданій історії це шлях споживання обчислювальної потужності «монопольного» типу, тобто постачальники обчислювальної потужності інвестують для закріплення попиту на обчислювальну потужність та безпосередньо задовольняють усі потреби в обчислювальній потужності інвестованих проектів. Але це не єдиний спосіб.
Фенг Бо вважає, що існує ще одна модель: «модель, в якій постачальники обчислювальної потужності входять у промислові фонди під статусом LP, варта уваги, оскільки вона створює замкнутий ланцюг попиту на обчислювальну потужність.»
Зокрема, бізнес-модель представляє характеристики зв'язку з капіталом: постачальник обчислювальної потужності А, як потенційний партнер з обмеженою відповідальністю (LP), досягає наміру співпраці з галузевим фондом Б. В інвестиційному ландшафті Фонду Б постачальник додатків штучного інтелекту C, як компанія, що є об'єктом інвестицій, має жорсткий попит на обчислювальні ресурси для розвитку свого бізнесу. У цей час А опосередковано пов'язує майбутні потреби компанії С у закупівлі обчислювальної потужності через стратегічні інвестиції у фонд Б, створюючи замкнутий цикл «капітальних інвестицій – закупівля обчислювальної потужності».
Якщо угода буде здійснена, компанія A отримає пріоритетне право на обслуговування завдяки статусу LP і стане обраним постачальником потужностей для компанії C. Ця модель по суті формує циклічний обіг коштів — внесок компанії A у фонд B врешті-решт повертається через закупівлю потужностей компанією C.
!
“Це не є основним способом, але це досить зручний спосіб.” Фенг Бо зізнався.
03Бульбашка ось-ось лусне, а далі що?
“Обговорюючи роздуми про інтелектуальні обчислення, не можна говорити лише про обчислювальну потужність, це питання промислового ланцюга. Щоб використовувати обчислювальну потужність, потрібно з'єднати розірвані точки, наразі цей промисловий ланцюг ще не утворив замкнуте коло.” Один з головних маркетологів постачальника обчислювальної потужності, який багато років працює в галузі, чітко вказав на основну проблему сучасної індустрії інтелектуальних обчислень.
У першій половині 2025 року в сфері штучного інтелекту одним із помітних трендів є те, що слово "попереднє навчання", яке раніше було на вустах у всіх великих компаній штучного інтелекту, поступово замінюється терміном "висновок". Незалежно від того, чи йдеться про широкий споживчий ринок C, чи про надання можливостей підприємствам B у різних галузях, крива попиту на висновки виглядає надзвичайно крутою.
«Виходячи з обсягу основних додатків штучного інтелекту на поточному ринку, таких як Doubao і DeepSeek, наприклад, припускаючи, що кожен активний користувач генерує в середньому 10 зображень на день, потреба в обчислювальній потужності, що стоїть за цим, може легко досягти рівня в мільйон петабайт». Це лише одна сцена генерації зображення, і якщо мультимодальні взаємодії, такі як текст, голос і відео, є надмірними. ”
Це лише потреби в інференції для кінцевих користувачів. Щодо користувачів бізнесу, потреби в інференції є ще більш масштабними. Один з керівників Huari Zhiku сказав Huxiu, що автомобільні заводи починають будівництво центрів інтелектуальних обчислень з масштабів у тисячі P, "і серед наших клієнтів, крім великих виробників, найбільші потреби в обчислювальних потужностях мають саме автомобільні заводи."
Однак, якщо пов'язати величезний попит на інференцію з бульбашкою обчислювальної потужності, історія виглядає надзвичайно абсурдною. Чому такий великий попит на інференцію все ще призводить до бульбашки обчислювальної потужності?
Один з постачальників обчислювальної потужності повідомив Huxiu, що такі величезні вимоги до інференції потребують від постачальників інтелектуальних обчислень оптимізації обчислювальної потужності за допомогою інженерних технологій, таких як зменшення часу запуску, збільшення обсягу пам'яті, скорочення затримки інференції, підвищення пропускної здатності та точності інференції тощо.
Не тільки це, але й проблема дисбалансу попиту та пропозиції, згадана вище, значною мірою пов'язана з проблемами з чіпами. З цього приводу деякі інсайдери з галузі повідомили HuXiu, що різниця між деякими вітчизняними картами та картами NVIDIA все ще досить велика, їхні власні показники розвитку нерівномірні, і навіть якщо в межах одного бренду накопичити багато карт, недоліки все ще залишаються, що призводить до того, що окремий кластер не може ефективно завершити навчання та висновки AI.
Цей «ефект короткої дошки» означає, що навіть якщо створити кластери обчислювальної потужності шляхом масованого складання чіпів, якщо проблема короткої дошки не буде ефективно вирішена, загальна ефективність всього кластера залишиться обмеженою, і буде важко ефективно підтримувати складне навчання та масштабні завдання інференції великих AI-моделей.
Насправді, інженерні виклики на рівні обчислювальної потужності та чіпові обмеження дійсно є серйозними, але багато глибоких потреб в обчислювальній потужності не були ефективно задоволені, і справжня "точка розриву" часто виникає в екосистемі застосувань вище рівня обчислювальної потужності, особливо в серйозному дефіциті вертикальних моделей L2 (тобто для конкретних галузей або ситуацій).
У медичній індустрії існує величезна "діра", яку потрібно заповнити, ефект всмоктування талантів є структурною проблемою, яка довгий час критикувалася в національній медичній системі, адже відмінні лікарі зосереджені в лікарнях трьох рівнів у великих містах. Але коли галузь сподівається на великі медичні моделі для досягнення якісного медичного ресурсного розподілу, виникає ще більш фундаментальний виклик: як побудувати надійний простір медичних даних?
Оскільки потрібно навчити великий модель для лікування всіх етапів захворювань, дані є ключовою передумовою. Але проблема в тому, що необхідно мати величезну кількість даних, що охоплюють усі етапи захворювання, всі вікові групи, всі статі та всі регіони, щоб сформувати знання в великій моделі. А реальність полягає в тому, що рівень відкритості медичних даних становить менше 5%.
Керівник інформаційного відділу одного з трьох найкращих лікарень розповів, що з 500 ТБ лікувальних даних, які генеруються щороку в його лікарні, справжніми даними, що можуть бути використані для навчання ШІ, є менше 3% анонімізованих структурованих даних. Ще більш серйозною є ситуація з рідкісними та хронічними захворюваннями, які становлять 80% вартості хвороб, оскільки через їхню чутливість вони протягом тривалого часу залишаються в "островах даних" різних медичних установ.
А такі розриви не можуть бути вирішені, ланцюг постачання не зможе сформувати замкнене коло. Попит на обчислювальну потужність, природно, не буде задоволений, і, очевидно, це вже давно виходить за межі традиційного розуміння тих постачальників інфраструктури обчислювальної потужності, які лише пропонують "картки та електрику".
Проте сьогодні на ринку вже з'явилась група нових постачальників обчислювальних послуг, які тихо зростають. Ці компанії більше не обмежують себе лише постачанням апаратного забезпечення або орендою обчислювальної потужності, вони також можуть створювати професійні алгоритмічні команди та команди галузевих експертів, глибоко залучаючись до процесу розробки та оптимізації AI-додатків для клієнтів.
Водночас, стикаючись з різними проблемами, такими як невідповідність ресурсів і використання обчислювальної потужності, різні регіони насправді також впроваджують різноманітні політики субсидій на обчислювальну потужність відповідно до місцевих потреб у промисловості. Серед них "квитки на обчислювальну потужність" є прямим способом зниження витрат підприємств на використання обчислювальної потужності. Однак для поточного етапу китайської інтелектуальної обчислювальної промисловості, простих "швидких ліків" у вигляді політики, напевно, вже недостатньо, щоб кардинально змінити ситуацію.
Сьогодні індустрії штучного інтелекту необхідна екосистема, яка забезпечує "кровотворення".