Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Зруйновані зберігаючі акції на 90 мільярдів доларів: стаття про Google AI підозрюється у фальсифікації експериментів
Оригінальний автор: глибокий приплив TechFlow
Згідно з доповіддю Google, яка нібито «стискає використання пам’яті AI до 1/6», минулого тижня це спричинило випаровування понад 90 млрд доларів ринкової капіталізації у глобальних акцій виробників чипів для зберігання даних, зокрема Micron, SanDisk тощо.
Однак лише через два дні після публікації статті постало «пригнічуване» алгоритмом протиставлення — постдокторантка Університету ETH Цюрих Гао Цзяньян опублікував багатотисячний відкритий лист, у якому звинуватив команду Google в експериментах: вони перевіряли опонента за допомогою однопроцесорного CPU Python-скрипта, але тестували себе на A100 GPU; і, дізнавшись про проблему ще до подання, все одно відмовилися її виправляти. Покази в Zhihu швидко перевищили 4 млн, офіційний акаунт Stanford NLP перекинув (передав) публікацію, а наукова спільнота й ринок одночасно здригнулися.
Суть цього спору не надто складна: чи системно перекрутила одна AI-стаття з конференції, яку офіційно й масштабно просувала Google та яка безпосередньо спричинила панічний розпродаж у всьому секторі чипів, вже опубліковану попередню роботу, і чи сформувала вона наратив про фальшиві переваги в продуктивності шляхом навмисно несправедливих експериментів?
TurboQuant зробив що: «пригладив» «чорновий папір» AI до шостої частини
Під час генерації відповіді великі мовні моделі мають одночасно писати й повертатися, щоб переглянути раніше обчислене. Ці проміжні результати тимчасово зберігаються в відеопам’яті; у галузі це називають «KV Cache» (кеш значень-ключів). Чим довша розмова, тим товстіша ця «чорнова папірець», тим більші витрати на відеопам’ять і тим вища собівартість.
Алгоритм TurboQuant, розроблений командою дослідників Google, ключовий аргумент якого полягає в тому, що цей «чорновий папірець» стискають до 1/6 від початкового обсягу, водночас заявляючи нульову втрату точності та прискорення виведення (inference) щонайбільше в 8 разів. Статтю вперше опублікували в академічному препринт-платформі arXiv у квітні 2025 року, у січні 2026 року її прийняли на топконференції ICLR 2026 в галузі AI, а 24 березня офіційний блог Google повторно оформив і просував її.
На технічному рівні підхід TurboQuant можна доволі просто зрозуміти так: спочатку за допомогою певного математичного перетворення «перемішують» безладні дані в уніфікований формат, потім стискають їх по одному за попередньо обчисленою оптимальною таблицею стиснення, і врешті коригують похибки обчислень, спричинені стисканням, за допомогою механізму виправлення помилок на 1 біті. Незалежні реалізації в спільноті вже підтвердили, що ефект стискання загалом відповідає заявленому; математичний внесок на рівні алгоритму справді існує.
Спір не в тому, чи може TurboQuant працювати, а в тому, що Google, щоб довести, ніби він «набагато перевершує конкурентів», зробила.
Відкритий лист Гао Цзяньяна: три звинувачення, кожне в саме яблучко
О 10 вечора 27 березня Гао Цзяньян опублікував довгий текст у Zhihu, а паралельно в ICLR офіційно подав формальний коментар на платформі рецензування OpenReview. Гао Цзяньян є першим автором алгоритму RaBitQ; цей алгоритм у 2024 році опублікували на топконференції в галузі баз даних SIGMOD. Він розв’язує той самий тип задач — ефективне стискання високовимірних векторів.
Його звинувачення — у трьох пунктах; кожен підкріплений листуванням і часовою шкалою.
Звинувачення 1: використали чужий ключовий метод, у всій роботі про нього не згадали.
Технічне ядро TurboQuant і RaBitQ має один ключовий спільний крок: перед тим, як стискати дані, спочатку виконують «випадкове обертання» даних. Ця операція змінює нерівномірні за розподілом дані на передбачуваний однорідний розподіл, тим самим істотно знижуючи складність стискання. Це найкритичніший і найближчий між двома алгоритмами компонент.
Автори TurboQuant у відповіді на рецензію також визнавали це, але в усьому тексті статті ніколи прямо не пояснили, як цей метод пов’язаний із RaBitQ. Ще важливіший контекст такий: другий автор TurboQuant Majid Daliri у січні 2025 року самостійно зв’язався з командою Гао Цзяньяна й попросив допомогти налагодити його Python-версію, переписану на основі коду RaBitQ. У листі детально описали кроки відтворення та повідомлення про помилки — іншими словами, команді TurboQuant було дуже добре відомо технічні деталі RaBitQ.
Один анонімний рецензент в ICLR незалежно також зазначив, що обидва використовують одну й ту саму техніку, і вимагав докладного обговорення. Але в фінальній версії статті команда TurboQuant не тільки не додала такого обговорення, а й перенесла (вже неповний) опис RaBitQ, який раніше був у основній частині, до додатків.
Звинувачення 2: без доказів стверджували, що теорія опонента «субоптимальна».
Стаття TurboQuant напряму приклеїла RaBitQ ярлик «теоретично субоптимальної» (suboptimal), пояснюючи це тим, що математичний аналіз RaBitQ «є доволі грубим». Але Гао Цзяньян зазначив: розширена версія статті RaBitQ вже строго довела, що похибка стиснення досягає математично оптимальної межі — цей висновок опублікували на топконференції з теоретичної інформатики.
У травні 2025 року команда Гао Цзяньяна вела детальні пояснення оптимальності теорії RaBitQ в кількох раундах листування. Другий автор TurboQuant Daliri підтвердив, що він повідомив усіх авторів. Але в остаточній версії статті все одно лишився вислів «субоптимальна», і жодних контраргументів не надали.
Звинувачення 3: в експериментальних порівняннях — «лівої руки прив’язали, правою — з ножем».
Це, мабуть, найзнищівніший пункт у всій статті. Гао Цзяньян вказує, що в експерименті з порівняння швидкості стаття TurboQuant наклала дві несправедливі умови:
По-перше, офіційно наданий RaBitQ оптимізований код на C++ (типово підтримує багатопотоковий паралелізм), але команда TurboQuant його не використовувала — натомість тестувала RaBitQ за допомогою власноруч перекладеної Python-версії. По-друге, коли тестували RaBitQ, використовували однокорний CPU та вимикали багатопоточність, тоді як TurboQuant використовував NVIDIA A100 GPU.
Сукупний ефект цих двох умов такий: читач бачить висновок «RaBitQ повільніший за TurboQuant на кілька порядків величини», але не має можливості знати, що цей висновок зробили після того, як команда Google «зв’язала руки» опоненту й тільки потім організувала забіг. У статті ці відмінності експериментальних умов не були достатньо розкриті.
Відповідь Google: «Випадкове обертання — універсальна техніка, тож неможливо посилатися на всі роботи»
Згідно з викриттям Гао Цзяньяна, у відповідях на листи від березня 2026 року команда TurboQuant написала: «Використання випадкового обертання та перетворення Johnson-Lindenstrauss уже є стандартною технікою в цій галузі; ми не можемо посилатися на кожну статтю, де використано ці методи».
Команда Гао Цзяньяна вважає, що це підміна понять: проблема не в тому, чи потрібно цитувати всі роботи, де використовували випадкове обертання, а в тому, що RaBitQ було зроблено в повністю однакових умовах постановки задачі — і саме перша робота, де поєднали цей метод зі стисканням векторів і довели його оптимальність. Отже, стаття TurboQuant має коректно описати взаємозв’язок між ними.
Офіційний акаунт Stanford NLP Group у X перекинув (ретвітнув) заяву Гао Цзяньяна. Команда Гао Цзяньяна вже опублікувала відкритий коментар на платформі ICLR OpenReview і подала офіційну скаргу голові конференції ICLR та в комітет з етики; далі вони також опублікують докладний технічний звіт на arXiv.
Незалежний технічний блогер Dario Salvati у своєму аналізі дав відносно нейтральну оцінку: TurboQuant справді має реальний внесок у математичні методи, але взаємозв’язок із RaBitQ значно тісніший, ніж так викладено в статті.
Зникнення ринкової капіталізації на 90 млрд доларів: суперечка навколо статті накладається на паніку ринку
Ця академічна суперечка розгортається вкрай влучно за часовою шкалою. Після того як 24 березня Google опублікувала TurboQuant через офіційний блог, глобальний сегмент чипів для зберігання даних зазнав різкого розпродажу. Як повідомляє низка медіа на кшталт CNBC, Micron Technologies падала безперервно шість торгових днів; сумарне падіння перевищило 20%. SanDisk упала на 11% за один день. SK Hynix в Кореї знизилась приблизно на 6%, Samsung Electronics — майже на 5%, японська Kioxia — приблизно на 6%. Логіка паніки на ринку проста й груба: програмне стиснення може знизити потребу AI у пам’яті для виведення (inference) у 6 разів, а перспективи попиту на чипи для зберігання даних зазнають структурного зниження.
Аналітик Morgan Stanley Joseph Moore у своєму огляді від 26 березня спростував цю логіку, зберігаючи рекомендації «купувати/набирати» для Micron і SanDisk. Moore зазначив, що стискають лише конкретний тип кешу — KV Cache, а не загальне використання пам’яті, і охарактеризував це як «нормальне покращення продуктивності». Аналітик Wells Fargo Andrew Rocha також послався на парадокс Джевонса: зростання ефективності знижує витрати, а отже може, навпаки, стимулювати масштабніше розгортання AI, зрештою збільшуючи попит на пам’ять.
Стара стаття, нове пакування: ризик ланцюгової передачі від досліджень AI до наративів ринку
За аналізом технічного блогера Ben Pouladian, стаття TurboQuant уже була оприлюднена в квітні 2025 року, тобто не є новим дослідженням. 24 березня Google повторно оформила й просунула її через офіційний блог, але ринок оцінив це як цілком новий прорив. Така стратегія просування «старої статті, нового релізу», у поєднанні з можливими експериментальними перекосами в самій роботі, віддзеркалює системні ризики того, як дослідження в AI передаються ланцюжком від академічних статей до наративів ринку.
Для інвесторів у базову інфраструктуру AI, коли стаття заявляє досягнення «покращень на кілька порядків величини», перше, що потрібно уточнити, — чи є умови бенчмарка справедливими.
Команда Гао Цзяньяна чітко заявила, що й надалі просуватиме офіційне розв’язання цього питання. З боку Google поки що не було офіційної відповіді на конкретні звинувачення зі відкритого листа.