Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
La limpieza de 90 mil millones de dólares en acciones de memoria por parte de Google en su artículo de IA, ¡sorprendentemente, podría estar implicada en fraude académico!
(Fuente: Machine Heart Pro)
Editor|Ze Nan, Yang Wen
No esperaba que esta vez una gran sacudida del mercado también sacara a relucir un “gran chisme” académico.
Esta noche de viernes, el incidente de malas prácticas académicas de Google en el ámbito académico se convirtió en el foco de atención en el sector de la IA.
El postdoctorado Gao Jianyang, de ETH Zurich, publicó un artículo en Zhihu, en el que afirma que en el paper de Google Research «TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate» hay serios problemas en la descripción de los algoritmos de cuantización vectorial existentes RaBitQ, en las comparaciones de resultados teóricos y en las comparaciones experimentales; además, los problemas relacionados ya habían sido señalados de manera explícita antes de que el manuscrito se presentara, pero los autores los ignoraron a propósito.
Como un tipo de investigación en IA capaz de derribar a una buena parte de las “empresas” basadas en lógica de la “línea principal”, el contenido de TurboQuant en la industria parece incuestionable. Sin embargo, ¿quién iba a imaginar que este paper de la cumbre de ICLR, impulsado por Google hasta el “altar”, con millones de impresiones, que su base tecnológica más central se vea envuelta en una nube de sospecha de “plagio”?
TurboQuant: provoca sacudidas en acciones de memoria
El paper de TurboQuant de Google se ha puesto recientemente de moda en el campo de la investigación en IA. Este paper, recibido por ICLR 2026 y presentado como un trabajo que describe un algoritmo de compresión, afirma que puede reducir al menos 6 veces la memoria de la caché KV de los grandes modelos de lenguaje, aumentar la velocidad hasta 8 veces, y con pérdida de precisión igual a cero.
TurboQuant se publicó en abril de 2025 en la plataforma de preprints arXiv; en enero de 2026 fue aceptado por ICLR 2026; y el 24 de marzo, tras la presentación en el blog de investigación de Google, generó una atención masiva.
El anuncio de Google en X alcanzó más de diez millones de visitas.
En la inferencia de grandes modelos de IA, cada vez que la IA genera una nueva palabra, necesita “repasar” el historial de la conversación (contexto); esta parte se almacena en la caché KV. Por eso, la memoria ocupada por la caché KV suele convertirse en el mayor cuello de botella que limita la velocidad y el costo de los grandes modelos. El método de compresión sin pérdidas “en el límite” propuesto por TurboQuant tiene resultados sorprendentes; debido a que puede reducir de forma drástica los recursos de hardware necesarios para ejecutar grandes modelos, impacta directamente en las expectativas del mercado sobre el crecimiento explosivo de chips de memoria.
El mismo día en que Google publicó el blog, las acciones de memoria en EE. UU. cayeron de manera colectiva: SanDisk llegó a caer un 6.5%, Seagate Technology cayó más de 5%, Western Digital cayó más de 4% y Micron Technology cayó 4%. La capitalización bursátil que el mercado evaporó en un día superó los 90.000 millones de dólares.
Entonces, ¿cómo logra exactamente esta tecnología tan promocionada por Google hacerlo? En pocas palabras, resuelve el “nudo mortal” del consumo de memoria mediante un conjunto de métodos ingeniosos.
TurboQuant logra este objetivo con compresión en dos etapas: en la primera etapa, utiliza los mecanismos de «random rotation» y PolarQuant para mapear vectores de alta dimensión a coordenadas polares, logrando una compresión extrema; en la segunda etapa, utiliza la transformación Quantized Johnson-Lindenstrauss (QJL), empleando solo 1 bit de espacio para corregir la desviación del cálculo del producto interno.
Sin embargo, precisamente esta parte de la tecnología se convirtió en la chispa que detonó el escándalo académico.
El doctor Gao Jianyang, de ETH Zurich, presentó evidencias que muestran que el mecanismo “revolucionario” central que Google promociona no fue una invención de Google; su equipo ya lo había propuesto de forma completa hacía dos años.
Lo más indignante es que Google en su paper “evadió” y “degradó” a propósito la tecnología previa.
El autor de RaBitQ cuestiona públicamente:
El método central de TurboQuant ya existía desde hace dos años
La serie de papers de RaBitQ se publicó en 2024. Propone un método de cuantización de vectores de alta dimensión y, en teoría, demuestra que alcanza un límite de error asintóticamente óptimo que corresponde al proporcionado por un paper de la cumbre en computación teórica.
RaBitQ y su versión extendida se publicaron en las conferencias top SIGMOD 2024 y SIGMOD 2025, respectivamente.
Una de las ideas centrales de RaBitQ es aplicar una rotación aleatoria (random rotation / Johnson-Lindenstrauss transform) a los vectores de entrada antes de la cuantización. Luego, utilizando las propiedades de la distribución de coordenadas después de la rotación, se realiza la cuantización vectorial; teóricamente se logra un límite de error óptimo.
Y el núcleo del método de TurboQuant también consiste en aplicar una rotación aleatoria (Johnson-Lindenstrauss transform) a los vectores de entrada antes de la cuantización. Incluso, esto lo describió personalmente el propio autor de TurboQuant en su respuesta de revisión en ICLR.
No obstante, el paper de TurboQuant evita deliberadamente, durante todo el texto, cualquier asociación directa con RaBitQ en términos de método. Al contrario, en el cuerpo del texto describe RaBitQ como una «grid-based PQ» y, al describirlo, omite a propósito el paso central de random rotation en RaBitQ, difuminando con intención la relación de herencia entre ambas cosas.
El segundo autor de TurboQuant, Majid Daliri, ya había contactado proactivamente a Gao Jianyang desde enero de 2025, pidiéndole ayuda para depurar el código de RaBitQ que él mismo había reproducido usando Python. Esto indica con claridad que el equipo de TurboQuant conoce muy bien los detalles técnicos de RaBitQ.
Ya que se sabía desde antes y se consultó al autor original, ¿por qué en el paper final no se hicieron citas razonables ni comparaciones objetivas?
Después de que el equipo de Gao Jianyang detectó estos problemas, adoptó un enfoque riguroso y, desde mayo de 2025, realizó varias comunicaciones privadas por correo con el equipo de TurboQuant, señalando explícitamente errores factuales.
Sin embargo, el equipo de TurboQuant rechazó corregirlo con el argumento de que «la random rotation ya se ha convertido en un estándar de la disciplina y no podemos citar cada uno de los métodos que la usan». Luego, este paper no solo fue impulsado hasta ICLR 2026, sino que también se convirtió en un foco de atención mundial.
Si no se corrige una narración académica de este tipo, irá convirtiéndose gradualmente en consenso. Finalmente, el equipo de Gao Jianyang salió y enumeró varias acusaciones.
Tres acusaciones específicas
Gao Jianyang enumera en su artículo tres problemas específicos.
Primera: evasión sistemática de la similitud técnica.
TurboQuant no solo no trató de forma directa la relación estructural entre los dos métodos; además, trasladó hacia el apéndice la descripción incompleta original de RaBitQ que antes figuraba en el cuerpo del texto. Esta acción ocurrió incluso después de que el revisor ya hubiera señalado claramente: «RaBitQ and variants are similar to TurboQuant in that they all use random projection», y hubiera exigido que se discutiera a fondo.
La respuesta de los autores de TurboQuant fue: «El uso de la random rotation y la transformación de Johnson-Lindenstrauss ya son una tecnología estándar en el campo; no podemos citar cada paper que utiliza estos métodos».
El equipo de Gao Jianyang considera que esta respuesta “desplaza la contradicción”: como trabajo pionero específico que, bajo la misma configuración de problema, combinó por primera vez la random rotation (transformación de Johnson-Lindenstrauss) con la cuantización de vectores y estableció garantías teóricas óptimas, RaBitQ debería describirse con precisión en el texto; y la conexión con el método de TurboQuant debería discutirse ampliamente.
Segunda: descripción incorrecta de los resultados teóricos de RaBitQ.
El paper de TurboQuant califica la garantía teórica de RaBitQ como «subóptima (suboptimal)» y la atribuye a «un análisis más laxo (loose analysis)», pero no proporciona ninguna deducción, comparación ni evidencia.
Lo cierto es que, en el Theorem 3.2 del paper de RaBitQ en su versión extendida (arXiv:2409.09913), ya se demuestra de manera rigurosa que el límite de error de RaBitQ alcanza el límite asintóticamente óptimo proporcionado por un paper de la conferencia top de computación teórica (Alon-Klartag, FOCS 2017). Debido a este resultado, se invitó al equipo de Gao Jianyang para dar un informe en un Workshop de FOCS, una conferencia top de ciencias de la computación teórica.
En mayo de 2025, el equipo de Gao Jianyang tuvo múltiples rondas de discusiones técnicas detalladas por correo con el segundo autor de TurboQuant, Majid Daliri, aclarando uno por uno esta interpretación errónea; Majid Daliri también indicó explícitamente que había informado a todos los coautores. Sin embargo, esta calificación errónea nunca se corrigió durante todo el proceso: pasó por revisiones completas, fue aceptado y además se promocionó a gran escala.
Tercera: creación deliberada de condiciones experimentales injustas.
Cuando el paper de TurboQuant prueba la velocidad de RaBitQ, no usa la implementación C++ oficial de código abierto; en su lugar, usa una versión en Python traducida por Majid Daliri. Además, limita RaBitQ a ejecutarse en un CPU de un solo núcleo, con múltiples hilos desactivados, mientras que TurboQuant prueba usando una GPU NVIDIA A100. Ninguna de estas dos condiciones sistémicamente injustas se divulga explícitamente en el paper.
Majid Daliri, en un correo de mayo de 2025, había admitido la limitación de un solo núcleo; pero el paper presenta igualmente a los lectores la conclusión derivada de ello, es decir, que «RaBitQ es más lento que TurboQuant por varios órdenes de magnitud», sin incluir ninguna explicación.
Elegir alzar la voz públicamente
Gao Jianyang afirma que en noviembre de 2025 ya descubrieron que TurboQuant había presentado ICLR 2026, y entonces contactaron a los Chairs del ICLR Program Committee, pero no recibieron ninguna respuesta.
Después de que el paper fuese aceptado formalmente en enero de 2026, Google comenzó a promocionarlo masivamente por canales oficiales; el contenido en redes sociales alcanzó rápidamente cientos de millones de visitas.
En marzo de 2026, el equipo de Gao Jianyang volvió a escribir formalmente a todos los autores de TurboQuant, pidiendo aclaraciones y correcciones. La respuesta recibida provino del primer autor Amir Zandieh: prometió corregir el problema dos y el problema tres después de que la conferencia ICLR concluyera oficialmente, pero se negó a discutir el problema de similitud técnica.
Gao Jianyang ya publicó comentarios públicos en la plataforma ICLR OpenReview, y presentó una queja formal con evidencia completa ante los ICLR General Chairs, PC Chairs y Code and Ethics Chairs, además de indicar que publicaría en arXiv un informe técnico detallado sobre TurboQuant y RaBitQ, y que conserva opciones para reportarlo adicionalmente a las instituciones pertinentes.
En la parte final del texto escribió: «Un paper que Google empuja al público con decenas de millones de exposiciones no necesita una propagación activa del relato erróneo; mientras no se corrija, automáticamente se convertirá en consenso.
Actualmente, las afirmaciones de Gao Jianyang y otros han recibido el apoyo de muchas personas.
Muchos dicen que Google ya no es la primera vez que hace algo así en investigación de IA.
Quizás Google y el ICLR oficial deban ofrecer una explicación.
Contenido de referencia:
Gran cantidad de información y análisis preciso, todo en la app de Sina Finance