Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Зруйновані зберігаючі акції на 90 мільярдів доларів: стаття про Google AI підозрюється у фальсифікації експериментів
Оригінальний автор: глибинна течія TechFlow
Google опублікував статтю з гучною обіцянкою «стиснути використання пам’яті ШІ до 1/6», і на минулому тижні вона спричинила випаровування більш ніж 90 млрд доларів ринкової капіталізації акцій глобальних чипів зберігання даних, таких як Micron і SanDisk.
Однак лише через два дні після виходу статті її «переможні» в порівнянні сторони — докторант-постдок з Швейцарської федеральної технологічної інституції в Цюриху (ETH Zurich) Гао Цзяньянь (高健扬) — опублікував публічний лист обсягом у тисячу слів із звинуваченнями. Він заявив, що команда Google в експериментах тестувала суперника за допомогою Python-скрипту на одному ядрі CPU, а себе — за допомогою A100 GPU; і навіть після того, як до публікації їм повідомили про проблеми, вони все одно відмовилися їх виправляти. Кількість переглядів у Zhihu швидко перевищила 4 мільйони, офіційний акаунт Stanford NLP зробив репост, а академічне середовище й ринок одночасно здригнулися.
Суть цієї суперечки не надто складна: чи системно перекрутила одна AI-стаття на з’їзді топ-рівня, яку Google офіційно та масово просував і яка безпосередньо спричинила панічні розпродажі в усьому світовому секторі чипів, уже опубліковану попередню роботу — і чи, створивши навмисно несправедливі експериментальні умови, сфабрикувала наратив про вигадану перевагу в продуктивності?
TurboQuant: що саме зроблено — «стиснути аркуш чернетки» ШІ до шостої частини
Під час генерації відповіді великі мовні моделі мають одночасно писати й повертатися, щоб переглянути раніше обчислений матеріал. Ці проміжні результати тимчасово зберігаються в відеопам’яті; у галузі це називають «KV Cache» (кеш ключ-значення). Чим довша розмова, тим товстіший стає цей «аркуш чернетки», тим більше витрачається пам’яті й тим вищою є вартість.
Алгоритм TurboQuant, який розробила дослідницька команда Google, головним пунктом продажу має те, що він стискає цей аркуш чернетки до 1/6 від початкового обсягу, водночас заявляючи про нульову втрату точності та підвищення швидкості виведення до 8 разів. Стаття вперше вийшла 2025 року квітня на академічній платформі попередніх публікацій arXiv; у січні 2026 року її прийняли на топовій конференції в сфері ШІ ICLR 2026; 24 березня статтю повторно упакував і просунув офіційний блог Google.
На технічному рівні ідею TurboQuant можна коротко зрозуміти так: спершу за допомогою певного математичного перетворення «промити» хаотичні дані в уніфікований формат, потім стиснути їх по одному за допомогою заздалегідь обчислених оптимальних таблиць стискання, а в кінці — виправити обчислювальні похибки, спричинені стисканням, використовуючи механізм корекції помилок на 1 біт.
Незалежні реалізації спільноти підтвердили, що ефект стискання загалом відповідає дійсності; математичний внесок на рівні алгоритму є реальним.
Суперечка не в тому, чи може TurboQuant працювати, а в тому, що саме зробила Google, щоб довести: вона «далеко попереду конкурентів».
Відкритий лист Гао Цзяньяня: три звинувачення — кожне б’є в ціль
27 березня о 22:00 Гао Цзяньянь опублікував довгий допис у Zhihu та паралельно подав офіційні коментарі на платформі ICLR для рецензування OpenReview. Гао Цзяньянь є першим автором алгоритму RaBitQ; цей алгоритм у 2024 році було опубліковано на топовій конференції в напрямі баз даних SIGMOD. Його задача — та сама категорія проблем: ефективне стискання високовимірних векторів.
Його звинувачення розділені на три частини, і кожна має електронні листи та таймлайни як підтвердження.
Звинувачення перше: використано чужий ключовий метод — у всьому тексті про нього немає.
Технічне ядро TurboQuant і RaBitQ має одну ключову спільну операцію: перед стисканням даних спершу виконують «випадкове обертання» (random rotation). Цей крок має на меті перетворити початкові нерівномірні за розподілом дані на передбачуваний рівномірний розподіл, різко знижуючи складність стискання. Це найключовіша, найближча за суттю частина двох алгоритмів.
Автори TurboQuant у відповіді на рецензії також визнавали це, але в повному тексті статті вони ніколи прямо не пояснили зв’язок цього методу з RaBitQ. Ключовіше інше: другий автор TurboQuant Majid Daliri у січні 2025 року самостійно зв’язався з командою Гао Цзяньяня та попросив допомогти налагодити його власну Python-версію, перероблену на основі коду RaBitQ. У листі детально описували кроки відтворення та інформацію про помилки — тобто команда TurboQuant дуже добре знала технічні деталі RaBitQ.
Анонімний рецензент на ICLR також незалежно вказав на те, що обидва використовують однакову технологію, і вимагав достатньо докладно обговорити це. Але у фінальній версії статті команда TurboQuant не лише не доповнила обговорення — натомість перенесла (вже неповний) опис RaBitQ з основного тексту в додаток.
Звинувачення друге: без доказів називають теорію опонента «субоптимальною».
У статті TurboQuant RaBitQ напряму приклеєно ярлик «теоретично субоптимальної» (suboptimal) — причина в тому, що математичний аналіз RaBitQ «є дещо грубим». Але Гао Цзяньянь зазначив, що в розширеній версії статті про RaBitQ вже строго доведено, що похибка стискання досягає математично оптимальної межі — і цей висновок опубліковано на топовій конференції з теоретичної інформатики.
У травні 2025 року команда Гао Цзяньяня вже пояснювала оптимальність теоретичних результатів RaBitQ в кількох раундах електронних листів. Другий автор TurboQuant Daliri підтвердив, що він повідомив про це всіх авторів. Але в кінцевій версії статті все одно лишилося формулювання «субоптимальною», без жодних спростувальних аргументів.
Звинувачення третє: у експериментальному порівнянні «лівій руці — кайдани, правій — ніж».
Це найвбивальніша за впливом частина всього тексту. Гао Цзяньянь вказав, що у експерименті з порівняння швидкості в статті TurboQuant накладено дві шари несправедливих умов:
По-перше, офіційна команда RaBitQ надала оптимізований C+±код (за замовчуванням він підтримує багатопотоковий паралелізм), але команда TurboQuant його не використовувала — натомість для тестування RaBitQ застосувала власну перекладену Python-версію. По-друге, коли тестували RaBitQ, використовували однопроцесорний CPU (single-core) і вимикали багатопотоковість, тоді як TurboQuant тестували на NVIDIA A100 GPU.
Сумарний ефект цих умов такий: читач бачить висновок «RaBitQ повільніша за TurboQuant на кілька порядків величини», але не має способу дізнатися, що цей висновок був зроблений за умов, коли команда Google спочатку «зв’язала опоненту руки й ноги», а потім випустила його змагатися. У статті не було достатньо розкрито відмінності цих експериментальних умов.
Відповідь Google: «випадкове обертання — загальна техніка, неможливо цитувати кожну роботу»
Згідно з тим, що Гао Цзяньянь розкрив, команда TurboQuant у відповіді електронними листами в березні 2026 року написала: «Використання випадкового обертання та перетворення Johnson-Lindenstrauss уже є стандартною технікою в цій галузі; ми не можемо цитувати кожну статтю, де застосовано ці методи».
Команда Гао Цзяньяня стверджує, що це є підміною понять: проблема не в тому, чи потрібно цитувати всі роботи, де використовують випадкове обертання; проблема в тому, що RaBitQ виконувала цю методику в повністю тотожних умовах постановки задачі, першою поєднала цей підхід зі стисканням векторів і довела його оптимальність; і тому в статті TurboQuant мали б коректно описати зв’язок між ними.
Офіційний акаунт Stanford NLP Group у X зробив репост заяви Гао Цзяньяня. Команда Гао Цзяньяня опублікувала публічні коментарі на платформі ICLR OpenReview, а також подала офіційну скаргу голові конференції ICLR та до етичного комітету; у подальшому вони ще опублікують детальний технічний звіт на arXiv.
Незалежний технічний блогер Dario Salvati у своєму аналізі дав порівняно нейтральну оцінку: TurboQuant справді має реальний внесок у математиці, але його зв’язок із RaBitQ значно тісніший, ніж це подано в статті.
Випаровування ринкової капіталізації на 90 млрд доларів: накладання суперечки в статті на ринкову паніку
Графік цієї академічної суперечки надзвичайно вдалий (у поганому сенсі). Після того, як Google 24 березня поширив TurboQuant через офіційний блог, глобальний сектор чипів зберігання даних зіткнувся з різким продажем. За повідомленнями низки медіа, зокрема CNBC, Micron падав шість торгових сесій поспіль, а кумулятивне падіння перевищило 20%; SanDisk впав на 11% за один день; SK Hynix знизився приблизно на 6%, Samsung Electronics впав майже на 5%, а Japan Kioxia — приблизно на 6%. Логіка паніки на ринку проста й груба: програмне стискання може зменшити потреби в пам’яті для виведення ШІ в 6 разів, отже перспективи попиту на чипи зберігання даних буде структурно знижено.
Аналітик Morgan Stanley Joseph Moore у аналітичному огляді від 26 березня спростував цю логіку та зберіг рекомендації «купувати» для Micron і SanDisk. Moore зазначив, що TurboQuant стискає лише KV Cache — конкретний тип кешу, а не загальне використання пам’яті — і охарактеризував це як «нормальне покращення продуктивності в виробництві». Аналітик Bank of America Andrew Rocha також посилався на парадокс Джевонса: підвищення ефективності знижує витрати, що натомість може стимулювати масштабніше розгортання ШІ, і в підсумку підвищить попит на пам’ять.
Стара стаття, нове пакування: ризик передачі наративу від AI-досліджень до ринку
За аналізом технічного блогера Ben Pouladian, стаття TurboQuant була опублікована ще у квітні 2025 року й не є новим дослідженням. 24 березня Google через офіційний блог повторно упакував і просунув її, але ринок оцінив це як абсолютно новий прорив. Така маркетингова стратегія «стара стаття, нова публікація», накладена на можливі експериментальні перекоси в самій статті, віддзеркалює системний ризик у ланцюжку передачі AI-досліджень — від академічних публікацій до ринкового наративу.
Для інвесторів в AI-інфраструктуру, коли стаття заявляє про підвищення продуктивності «на кілька порядків величини», перш за все потрібно запитати: чи є умови базових порівнянь чесними.
Команда Гао Цзяньяня вже чітко заявила, що продовжуватиме добиватися офіційного розв’язання проблеми. З боку Google поки що не було офіційної відповіді на конкретні звинувачення з відкритого листа.