Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Google emite novamente uma "esclarecimento técnico", causando controvérsia sobre o artigo que abalou as ações globais de armazenamento
Pergunta: A clarificação técnica do AI · TurboQuant pode acalmar a controvérsia académica?
A 1 de abril, após quase uma semana de silêncio, a equipa responsável pelo controverso artigo sobre o algoritmo de compressão TurboQuant da Google finalmente respondeu. No entanto, esta mais recente “esclarecimento técnico” parece ainda não ter apaziguado as disputas, pois as acusações de “semelhança técnica central” foram defendidas pela Google, que afirmou que a rotação aleatória é uma técnica padrão e que os erros nos benchmarks experimentais “não são importantes para os factos”.
Na última semana de março, este artigo, amplamente promovido pelo blog oficial da Google, causou uma queda abrupta nas ações globais de chips de armazenamento, com empresas como Micron, SK Hynix e Samsung Electronics a perderem mais de 90 mil milhões de dólares em valor de mercado. O artigo indicava que o algoritmo de compressão TurboQuant podia reduzir em pelo menos 6 vezes o consumo de memória de cache KV de grandes modelos de linguagem, com uma melhoria de velocidade de até 8 vezes, sem perda de precisão.
O pânico em Wall Street residia no facto de que, se o software pudesse comprimir a necessidade de memória de IA em 6 vezes, a lógica de crescimento do hardware dos chips teria de ser reescrita.
No entanto, a reversão veio rapidamente. A 27 de março, Gao Jianyang, autor do RaBitQ e pós-doutor na ETH Zurique, publicou uma longa análise no Zhihu, acusando a equipa da Google de problemas académicos sistemáticos, levando a uma rápida mudança de opinião para uma crítica à má conduta académica da Google.
De modo geral, a indústria considera que Gao Jianyang foi o primeiro a propor uma abordagem original, e que o TurboQuant, ao otimizar essa abordagem, não recebeu a devida citação ou respeito, chegando mesmo a fazer uma avaliação injusta.
A 1 de abril, perante as acusações externas, o segundo autor do artigo, Majid Daliri, finalmente apareceu, publicando na plataforma OpenReview uma clarificação técnica com quatro pontos.
No que diz respeito à novidade da tecnologia central, a Google afirmou que o método principal do TurboQuant não deriva do RaBitQ. Porque “a rotação aleatória é uma técnica padrão e omnipresente na literatura de quantização”, já amplamente utilizada antes do aparecimento do RaBitQ. A verdadeira inovação do TurboQuant reside na derivação da distribuição de coordenadas após a rotação.
Contudo, as regras académicas dizem que: se alguém for o primeiro a usar uma “roda” num “carro” e a construir um veículo completo, os posteriores que a citarem e agradecerem são considerados uma questão de etiqueta académica. A Google minimizou as contribuições anteriores, considerando-as conhecimento comum da indústria, o que equivale a desvalorizar a contribuição do pioneiro.
Em segundo lugar, quanto à acusação de que a teoria do RaBitQ foi depreciada como “sub-ótima”, os autores admitiram que, por não terem examinado cuidadosamente o apêndice, perderam um fator constante, levando a uma conclusão precipitada, “o que nos levou a descrever inicialmente o método como sub-ótimo”. Após uma análise mais detalhada, descobriram que o RaBitQ é realmente ótimo, e a equipa está a atualizar o manuscrito do TurboQuant.
No entanto, uma publicação de conferência de topo que avalia negativamente a teoria central de um colega com base na “falta de leitura cuidadosa do apêndice” levanta dúvidas sobre a força dessa explicação.
No terceiro ponto, quanto à acusação de “usar o adversário como peão na corrida”, Majid Daliri afirmou que, mesmo omitindo completamente a comparação em tempo de execução com o RaBitQ, o impacto científico e a validade do artigo permanecem praticamente inalterados. Porque a principal contribuição do TurboQuant reside na compensação entre qualidade de compressão e velocidade, não numa aceleração específica.
Gao Jianyang, numa carta pública anterior, revelou que a equipa da Google testou o RaBitQ usando um CPU de núcleo único e desativou o multithreading, enquanto que, ao testar o TurboQuant, usou uma GPU Nvidia A100. Apesar de a equipa afirmar que a velocidade não é o foco principal, o artigo ainda destacou a velocidade como um dos principais argumentos de venda.
Por fim, a Google insinuou na sua resposta que as acusações “têm intenções ocultas”, afirmando que o artigo foi publicado no arXiv desde abril de 2025, e que a outra parte teve quase um ano para questionar através de canais académicos, só tendo feito barulho após o artigo ganhar ampla atenção.
Segundo Gao Jianyang, em comunicações por email em maio de 2025, as partes trocaram mensagens privadas, e em novembro de 2025 chegaram a contactar o comissão organizadora do ICLR, mas sem resposta eficaz. Foi só quando a Google colocou o artigo numa plataforma de grande visibilidade que a correção académica se tornou urgente.
No OpenReview, um investigador comentou que se trata de um problema sério que merece mais atenção: “Ver pessoas envolvidas em trabalho fundamental serem ignoradas, enquanto organizações influentes promovem os seus resultados, é frustrante.” Nesse aspeto, parece mais uma batalha de relações públicas do que uma questão científica.
Ao mesmo tempo, os revisores do artigo TurboQuant também se manifestaram, afirmando que, devido à sua análise teórica e resultados experimentais, deram uma avaliação muito positiva ao artigo.
“Contudo, também indiquei claramente que tanto o RaBitQ como o TurboQuant usam rotação aleatória, e pedi aos autores do TurboQuant que comparassem como as diferenças de design entre TurboQuant e RaBitQ afetam o desempenho.” Um desses revisores afirmou que a prática académica correta seria discutir detalhadamente as diferenças entre os dois métodos no artigo, mas que, na revisão, “ficou surpreendido ao ver que o RaBitQ foi mencionado apenas uma vez na secção experimental do artigo principal”.
Inquestionavelmente, o TurboQuant possui potencial comercial a nível técnico. Um mestre em inteligência artificial analisou no Zhihu que, em cenários de inferência de grandes modelos, o consumo de memória de cache KV determina diretamente o número de pedidos que podem ser processados por uma única GPU, sendo um indicador económico central para fornecedores de inferência. Com a mesma GPU, um aumento de 6 vezes na capacidade de processamento paralelo pode reduzir o custo de inferência por pedido para um sexto. Para empresas que lidam com bilhões de chamadas API diárias, isto representa uma enorme redução de custos, motivo pelo qual as ações tiveram uma oscilação significativa.
Este artigo da Google será apresentado na conferência top de aprendizagem de máquina ICLR 2026 no final de abril, mas parece que a equipa terá de ultrapassar primeiro esta controvérsia académica. Como terminará esta polémica, ainda está por ver.
(Este artigo é da primeira财经)
Leitura adicional:
A equipa do TurboQuant cometeu má conduta académica? A Google respondeu, mas a controvérsia aumentou.