Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Разрушение хранения акций на 90 миллиардов долларов: Google AI-статью обвиняют в фальсификации экспериментов
Оригинальный автор: Deep Tide TechFlow
Google опубликовал статью, которая якобы «сжимает использование памяти ИИ до 1/6». На прошлой неделе это вызвало обвал рыночной капитализации более чем на 90 миллиардов долларов у акций производителей чипов хранения по всему миру, включая Micron и SanDisk.
Однако спустя всего два дня после публикации статьи, человек, которого якобы «раздавил» алгоритм, — постдокторант ETH Zurich (Швейцарская высшая техническая школа) по имени Гао Цзяньян — опубликовал 10-тысячисловное открытое письмо, обвинив команду Google в том, что в экспериментах она испытывала противника с помощью скрипта на Python на одном ядре CPU, а себя — с помощью A100 GPU. При этом, по словам Гао Цзяньяна, после того как проблему ему сообщили до подачи, команда отказалась исправлять. Просмотры на Zhihu быстро превысили 4 миллиона, официальный аккаунт Stanford NLP сделал репост, и академическое сообщество и рынок одновременно содрогнулись.
Суть этого спора несложна: может ли одна из AI-топ-конференций, которую официально и масштабно продвигает Google, непосредственно вызвав панические продажи в глобальном секторе чипов, системно искажать уже опубликованную ранее работу — и, создавая заведомо несправедливые эксперименты, формировать нарратив о ложных преимуществах по производительности?
Что сделал TurboQuant: «утончил» «черновую бумагу» ИИ до одной шестой
Когда большие языковые модели генерируют ответы, им нужно одновременно писать и возвращаться к ранее посчитанному. Эти промежуточные результаты временно хранятся в видеопамяти; в отрасли это называют «KV Cache» (кэш ключ-значение). Чем длиннее диалог, тем «толще» эта «черновая бумага», тем больше расходуется видеопамять и тем выше стоимость.
Алгоритм TurboQuant, разработанный исследовательской командой Google, как раз и делает основной акцент на сжатии этой «черновой бумаги» до 1/6 от исходного объёма, при этом заявляя об отсутствии потери точности и повышении скорости вывода до 8 раз. Статья впервые вышла в апреле 2025 года на платформе академических препринтов arXiv. В январе 2026 года её приняли на ведущей конференции ICLR 2026 в сфере ИИ. 24 марта её вновь упаковали и продвигали через официальный блог Google.
Технически идею TurboQuant можно понимать просто: сначала с помощью математического преобразования «очистить» и привести разрозненные данные к единому формату, затем с использованием заранее рассчитанной оптимальной таблицы сжатия последовательно сжимать поэлементно, и наконец — с помощью механизма коррекции ошибок в 1 бит исправить вычислительные отклонения, возникающие из-за сжатия. Независимые реализации в сообществе подтвердили, что эффект сжатия в целом соответствует заявленному; математический вклад на уровне алгоритма действительно существует.
Спор не в том, можно ли использовать TurboQuant, а в том, что Google, чтобы доказать, что он «намного превосходит конкурентов», сделал именно это.
Открытое письмо Гао Цзяньяна: три обвинения — каждое попадает в цель
Вечером 27 марта в 22:00 Гао Цзяньян опубликовал на Zhihu большой текст и одновременно отправил официальные комментарии на платформу рецензирования ICLR OpenReview. Гао Цзяньян — первый автор алгоритма RaBitQ; этот алгоритм был опубликован в 2024 году на топовой конференции в области баз данных SIGMOD и решает тот же класс задач — эффективное сжатие высокомерных векторов.
Его обвинения делятся на три пункта, и в каждом есть почтовые записи и подтверждающая временная шкала.
Обвинение 1: использовали чужой ключевой метод, но в тексте его не упомянули.
У TurboQuant и RaBitQ есть один ключевой общий шаг: до сжатия данных сначала выполнить «случайное вращение» (random rotation). Эта операция превращает изначально нерегулярные по распределению данные в предсказуемое равномерное распределение, тем самым существенно снижая сложность сжатия. Это наиболее ключевая и наиболее близкая часть двух алгоритмов.
Авторы TurboQuant в ответе на рецензирование также признают это, но в полном тексте статьи никогда прямо не объясняют связь этого метода с RaBitQ. Более того, ключевой фон таков: второй автор TurboQuant, Majid Daliri, в январе 2025 года сам связался с командой Гао Цзяньяна и попросил помочь отладить его Python-версию, которую тот подготовил на основе исходного кода RaBitQ. В письме подробно описаны шаги воспроизведения и сообщения об ошибках — другими словами, команда TurboQuant прекрасно знала технические детали RaBitQ.
Один анонимный рецензент в ICLR независимо также указал на то, что оба используют одну и ту же технологию, и потребовал подробно обсудить это. Но в финальной версии статьи команда TurboQuant не только не добавила обсуждения, но и перенесла исходное (уже неполное) описание про RaBitQ из основного текста в приложение.
Обвинение 2: без доказательств назвали теорию оппонента «субоптимальной».
В статье TurboQuant RaBitQ напрямую маркируется как «theoretical suboptimal» (теоретически субоптимальная), с аргументом, что математический анализ RaBitQ «довольно грубый». Однако Гао Цзяньян указывает, что расширенная версия статьи RaBitQ уже строго доказала, что ошибка сжатия достигает математически оптимальной границы — этот вывод был опубликован на топовой конференции по теоретической информатике.
В мае 2025 года команда Гао Цзяньяна в ходе нескольких раундов писем подробно объяснила оптимальность RaBitQ в теории. Второй автор TurboQuant Daliri подтвердил, что он уже уведомил всех авторов. Но в итоговой статье всё равно сохранилось утверждение «субоптимально», без предоставления каких-либо контраргументов.
Обвинение 3: в экспериментальном сравнении — «слева держат ноги, справа дают нож».
Это наиболее убийственный пункт во всём тексте. Гао Цзяньян отмечает, что в эксперименте по сравнению скорости в статье TurboQuant накладываются две заведомо несправедливые условия:
Во-первых, RaBitQ официально предоставляет оптимизированный C+±код (по умолчанию с поддержкой многопоточного параллелизма), но команда TurboQuant его не использовала — она тестировала RaBitQ с помощью собственной переведённой версии на Python. Во-вторых, при тестировании RaBitQ использовался одноядерный CPU с отключённым многопоточностью, тогда как TurboQuant тестировали на NVIDIA A100 GPU.
Совокупный эффект этих двух условий таков: читатель видит вывод «RaBitQ медленнее TurboQuant на несколько порядков», но при этом ему не дают понять, что это заключение было получено после того, как команда Google «связала оппоненту руки и ноги», а затем запустила гонку. В статье эти различия экспериментальных условий недостаточно раскрыты.
Ответ Google: «Random rotation — универсальная технология, нельзя же цитировать каждую статью»
Согласно раскрытию Гао Цзяньяна, в ответных письмах команды TurboQuant в марте 2026 года говорится следующее: «Random rotation и использование преобразования Johnson-Lindenstrauss уже являются стандартными технологиями в этой области; мы не можем цитировать каждую статью, которая использует эти методы».
Команда Гао Цзяньяна считает, что это подмена понятий: проблема не в том, нужно ли цитировать все статьи, где применяли random rotation, а в том, что RaBitQ — это работа, которая при полностью идентичной постановке задачи первой связала этот метод со сжатием векторов и доказала его оптимальность. Поэтому статья TurboQuant должна была корректно описать связь между ними.
Stanford NLP Group в официальном аккаунте X перепостил заявление Гао Цзяньяна. Команда Гао Цзяньяна уже опубликовала публичные комментарии на платформе ICLR OpenReview и направила официальную жалобу председателю конференции ICLR и в этический комитет; в дальнейшем также планируется публикация детального технического отчёта на arXiv.
Независимый технический блогер Dario Salvati в своём анализе дал относительно нейтральную оценку: у TurboQuant действительно есть реальный вклад на уровне математических методов, но связь с RaBitQ намного теснее, чем это представлено в статье.
Обвал капитализации на 90 миллиардов долларов: научный спор накладывается на рыночную панику
У этого академического спора чрезвычайно тонкий временной контекст. После того как 24 марта Google через официальный блог опубликовал и продвинул TurboQuant, глобальный сектор чипов хранения столкнулся с резкими распродажами. По данным нескольких СМИ, включая CNBC, Micron падала в течение шести торговых сессий подряд, суммарное снижение превысило 20%; SanDisk за один день снизилась на 11%; SK Hynix в Корее — примерно на 6%, Samsung Electronics — почти на 5%, а Япония Kioxia (Кейосиа) — примерно на 6%. Логика паники на рынке простая и грубая: программное сжатие может снизить требования к памяти ИИ для вывода в 6 раз, и перспективы спроса на чипы хранения будут структурно пересмотрены вниз.
Аналитик Morgan Stanley Joseph Moore в отчёте от 26 марта опроверг эту логику, сохранив рекомендации «покупать» для Micron и SanDisk. Moore указал, что сжимается только KV Cache — конкретный тип кэша, а не весь объём использования памяти — и охарактеризовал это как «нормальное улучшение производительности». Аналитик Wells Fargo Andrew Rocha также привёл доводы, опирающиеся на парадокс Джевонса: повышение эффективности снижает стоимость, но может, наоборот, стимулировать более масштабные развёртывания ИИ, что в итоге увеличит потребность в памяти.
Старая статья, новая упаковка: риски в цепочке передачи от исследований ИИ к рыночному нарративу
По анализу технического блогера Ben Pouladian, статья TurboQuant была опубликована публично уже в апреле 2025 года и не является новым исследованием. 24 марта Google переупаковал и продвигал её через официальный блог, однако рынок оценил это как совершенно новое достижение. Такая стратегия продвижения «старая статья, новая публикация», в сочетании с потенциальными экспериментальными смещениями в самой статье, отражает системные риски в цепочке передачи от академических статей по ИИ к рыночному нарративу.
Для инвесторов в базовую инфраструктуру ИИ, когда статья заявляет о «нескольких порядках» прироста производительности, первым делом нужно спросить: являются ли условия базового сравнения справедливыми.
Команда Гао Цзяньяна уже дала понять, что будет продолжать добиваться официального решения проблемы. Со стороны Google пока не поступило официального ответа по конкретным обвинениям из открытого письма.