Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Google, que ha destruido 90 mil millones de dólares en acciones de almacenamiento, con un paper de IA de Google, es acusado de falsificación en experimentos
Autor del texto original: Deep Tide TechFlow
Un artículo de Google, que se jacta de «comprimir el uso de memoria de la IA hasta 1/6», la semana pasada provocó la evaporación de más de 9000 millones de dólares en valor de mercado en las acciones de chips de almacenamiento a nivel mundial, como Micron y SanDisk.
Sin embargo, solo dos días después de la publicación del artículo, la parte «aplastada» de la contraposición —el recién llegado en forma de carta abierta de más de mil palabras publicada por el postdoctorado Gao Jiany an, de la Escuela Politécnica Federal de Zúrich— acusó que el equipo de Google, en sus experimentos, probó al rival con scripts de Python de un solo núcleo de CPU, pero se probó a sí mismo con una GPU A100; y que además, antes de la presentación, ya le habían avisado del problema y aun así se negaron a corregirlo. El número de lecturas en Zhihu superó rápidamente los 4 millones; la cuenta oficial de Stanford NLP lo reenvió, y academia y mercado se sacudieron al mismo tiempo.
El núcleo de esta controversia no es complicado: una cumbre de IA publicada por y promocionada a gran escala por Google, que provocó directamente el pánico en todo el sector de chips con ventas de pánico, ¿distorsionó sistemáticamente un trabajo previo ya publicado y, mediante experimentos intencionalmente injustos, fabricó un relato de supuesta ventaja de rendimiento?
TurboQuant hizo qué: comprimir el «papel borrador» de la IA hasta 1/6 del original
Cuando los grandes modelos de lenguaje generan respuestas, necesitan ir escribiendo mientras miran hacia atrás el contenido calculado con anterioridad. Estos resultados intermedios se almacenan temporalmente en la memoria de la GPU; en la industria se les llama «KV Cache» (caché de valores y claves). Cuanto más larga sea la conversación, más gruesa es esta «hoja borrador» y mayor es el consumo de memoria, además de más alto el costo.
El algoritmo TurboQuant desarrollado por el equipo de investigación de Google tiene como punto de venta principal comprimir esta hoja borrador hasta 1/6 de su tamaño, y al mismo tiempo afirma que no hay pérdida de precisión y que la velocidad de inferencia mejora hasta 8 veces. El artículo se publicó por primera vez en abril de 2025 en la plataforma de preprints arXiv, y en enero de 2026 fue aceptado por la conferencia de primer nivel en el campo de la IA ICLR 2026; el 24 de marzo fue reempaquetado y promocionado de nuevo por el blog oficial de Google.
A nivel técnico, la idea de TurboQuant puede entenderse de forma simple así: primero, usar una transformación matemática para «lavar» datos desordenados en un formato uniforme; luego, comprimirlos uno por uno usando una tabla óptima de compresión calculada de antemano; por último, corregir las desviaciones de cálculo causadas por la compresión mediante un mecanismo de corrección de errores de 1 bit. Implementaciones independientes de la comunidad han verificado que su efecto de compresión es básicamente real; la contribución matemática a nivel de algoritmo existe de manera auténtica.
La controversia no está en si TurboQuant puede usarse, sino en qué hizo Google para demostrar que «supera de lejos» a la competencia.
Carta abierta de Gao Jiany an: tres acusaciones, cada una da en el blanco
A las 10 de la noche del 27 de marzo, Gao Jiany an publicó un texto largo en Zhihu y, simultáneamente, envió comentarios formales al plataforma oficial de revisión de ICLR OpenReview. Gao Jiany an es el primer autor del algoritmo RaBitQ; ese algoritmo se publicó en 2024 en la conferencia de primer nivel del ámbito de bases de datos SIGMOD, y resuelve el mismo tipo de problema: la compresión eficiente de vectores de alta dimensión.
Sus acusaciones son tres; cada una cuenta con registros de correos y una cronología que lo respalda.
Acusación 1: usó el método central de otros, pero el texto completo no lo menciona.
El núcleo técnico compartido entre TurboQuant y RaBitQ tiene un paso común clave: antes de comprimir los datos, primero se realiza una «rotación aleatoria» a los datos. Esta operación hace que los datos originalmente distribuidos de forma irregular se conviertan en una distribución uniforme y predecible, reduciendo drásticamente la dificultad de la compresión. Esta es la parte más esencial y más cercana de ambos algoritmos.
El propio autor de TurboQuant también reconoce este punto en su respuesta a la revisión, pero en el texto completo del artículo nunca se explica de frente la relación de este método con RaBitQ. Más importante aún, el trasfondo es el siguiente: el segundo autor de TurboQuant, Majid Daliri, en enero de 2025 se puso en contacto de forma proactiva con el equipo de Gao Jiany an y pidió ayuda para depurar su versión de Python reescrita a partir del código fuente de RaBitQ. En el correo se describieron detalladamente los pasos de reproducción y la información de los errores; dicho de otro modo, el equipo de TurboQuant conocía muy bien los detalles técnicos de RaBitQ.
Un revisor anónimo de ICLR también señaló de forma independiente que ambos usaban la misma técnica, y pidió discutirla con suficiente profundidad. Sin embargo, en la versión final del artículo, el equipo de TurboQuant no solo no añadió discusión, sino que la descripción original (ya incompleta) sobre RaBitQ que estaba en el cuerpo del texto se movió al apéndice.
Acusación 2: sin fundamento, llama «subóptima» la teoría del otro.
El artículo de TurboQuant etiqueta directamente a RaBitQ con «teoría subóptima» (suboptimal), alegando que el análisis matemático de RaBitQ «es relativamente tosco». Pero Gao Jiany an señaló que el artículo de RaBitQ en su versión ampliada ya probó rigurosamente que su error de compresión alcanza el límite óptimo matemático; ese resultado se publicó en una conferencia de primer nivel de ciencias de la computación teóricas.
En mayo de 2025, el equipo de Gao Jiany an, a través de múltiples rondas de correos, explicó en detalle la optimalidad teórica de RaBitQ. El segundo autor de TurboQuant, Daliri, confirmó que ya lo había informado a todos los autores. Pero aun así, el artículo final mantuvo la expresión de «subóptima» sin proporcionar ningún argumento de refutación.
Acusación 3: «atarle la mano izquierda y darle un cuchillo a la derecha» en las comparaciones experimentales.
Esta es la más letal del texto completo. Gao Jiany an indicó que, en los experimentos comparativos de velocidad, el artículo de TurboQuant superpuso dos condiciones injustas:
Primero, RaBitQ ofrece código C++ optimizado (con soporte predeterminado para paralelismo multi-hilo), pero el equipo de TurboQuant no lo usó; en su lugar, probó RaBitQ con una versión de Python traducida por ellos mismos. Segundo, al probar RaBitQ usaron CPU de un solo núcleo y desactivaron el multihilo, mientras que TurboQuant se probó con GPU NVIDIA A100.
El efecto combinado de estas dos condiciones es que el lector ve la conclusión de que «RaBitQ es más lento que TurboQuant por varios órdenes de magnitud», pero no tiene forma de saber que ese resultado se dio bajo el supuesto de que el equipo de Google amarró al rival antes de la carrera. El artículo no divulgó de manera suficientemente clara las diferencias entre estas condiciones experimentales.
Respuesta de Google: «la rotación aleatoria es una técnica general, no se puede citar que cada artículo la use»
Según lo divulgado por Gao Jiany an, en la respuesta por correo del equipo de TurboQuant de marzo de 2026 indicaron: «El uso de rotación aleatoria y de las transformaciones de Johnson-Lindenstrauss ya es una técnica estándar en este campo; no podemos citar cada artículo que use estos métodos».
El equipo de Gao Jiany an sostiene que eso es cambiar el concepto: el problema no es si hay que citar todos los artículos que usaron rotación aleatoria, sino que RaBitQ es el trabajo que, en el mismo planteamiento de problema totalmente idéntico, combinó por primera vez este método con la compresión de vectores y además probó su optimalidad; por lo tanto, el artículo de TurboQuant debería describir con precisión la relación entre ambos.
La cuenta oficial de X de Stanford NLP Group reenvió la declaración de Gao Jiany an. El equipo de Gao Jiany an ya publicó comentarios abiertos en la plataforma ICLR OpenReview, y presentó una queja formal al presidente de la conferencia ICLR y al comité de ética; después también publicarán un informe técnico detallado en arXiv.
El bloguero técnico independiente Dario Salvati dio una evaluación relativamente neutral en su análisis: TurboQuant tiene una contribución matemática real en sus métodos, pero su relación con RaBitQ es mucho más estrecha de lo que el artículo presenta.
Evaporación de 9000 millones de dólares en valor de mercado: la controversia del artículo se suma al pánico del mercado
El momento en que ocurre esta controversia académica es extremadamente delicado. Después de que Google publicara TurboQuant el 24 de marzo mediante su blog oficial, el sector global de chips de almacenamiento sufrió una venta masiva brutal. Según varios medios como CNBC, Micron cayó durante seis sesiones consecutivas, con una caída acumulada de más del 20%; SanDisk cayó un 11% en un solo día; SK Hynix de Corea del Sur cayó cerca de un 6%, Samsung Electronics cayó casi un 5%, y el fabricante japonés Kioxia (antes Toshiba Memory) cayó alrededor de un 6%. La lógica del pánico en el mercado es simple y brutal: la compresión de software puede reducir la demanda de memoria para la inferencia de IA en 6 veces, y las perspectivas de demanda de los chips de almacenamiento se verán rebajadas de forma estructural.
En el informe de investigación del 26 de marzo, el analista de Morgan Stanley Joseph Moore refutó esta lógica y mantuvo la calificación de «comprar más» para Micron y SanDisk. Moore señaló que lo que comprime TurboQuant es únicamente KV Cache, un tipo específico de caché, y no el uso de memoria total, y lo calificó como una «mejora normal de productividad». El analista de Wells Fargo Andrew Rocha también citó la paradoja de Jevons: mejoras de eficiencia que reducen costos podrían, a la vez, estimular despliegues de IA a mayor escala, elevando finalmente la demanda de memoria.
Artículos antiguos, nuevo empaque: riesgo en la cadena de transmisión de la narrativa de investigación de IA al mercado
Según el análisis del bloguero técnico Ben Pouladian, el artículo de TurboQuant ya se había publicado de forma abierta en abril de 2025 y no era una investigación nueva. El 24 de marzo, Google lo reempaquetó y volvió a promocionarlo mediante su blog oficial; pero el mercado lo valoró como si fuera un avance completamente nuevo. Esta estrategia de promoción de «artículo antiguo, nueva publicación», sumada a posibles sesgos experimentales en el propio artículo, refleja un riesgo sistémico en la cadena de transmisión de la investigación de IA desde trabajos académicos hasta narrativas de mercado.
Para los inversores en infraestructura de IA, cuando un artículo afirma lograr mejoras de rendimiento de «varios órdenes de magnitud», lo primero que hay que preguntarse es si las condiciones de comparación de referencia son justas.
El equipo de Gao Jiany an ya ha dejado claro que seguirá impulsando una solución formal del problema. Por parte de Google, aún no ha habido una respuesta formal a las acusaciones específicas de la carta abierta.