Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
¿La caída de más de mil millones en la fábrica de memoria fue solo un malentendido?
(Fuente: NetEase Technology)
Si no fuera por este sainete que montó TurboQuant de Google, no me habría dado cuenta de que llevamos tanto tiempo aguantando la IA.
El día 24 de este mes, el Instituto de Investigación de Google (Google Research) publicó de repente un post y presentó en detalle un algoritmo llamado TurboQuant, de compresión extrema.
Este artículo resume de forma muy simple para qué sirve TurboQuant: puede comprimir la memoria del KV cache durante la inferencia de grandes modelos hasta 3,5 bit (aprox. 6 veces), y casi no pierde precisión.
Dicho en palabras sencillas: el Instituto de Investigación de Google presenta un algoritmo que reduce considerablemente el consumo de memoria de los grandes modelos. Antes, había que usar 600G de memoria para lograrlo; ¡y con este algoritmo, con 100G basta!
Al día siguiente, varios gigantes del almacenamiento que todavía comían hotpot cantando canciones vieron cómo sus acciones caían de inmediato.
Las acciones de Micron Technology bajaron 3,4%; la pérdida de valor de mercado fue de 15.17B de dólares. SanDisk llegó a caer hasta un 6,5%; al cierre, la caída se redujo a 3,5% y la pérdida de valor de mercado fue de 3.63B de dólares. Western Digital cayó 1,63% y perdió 1.66B de dólares de valor de mercado.
Fuente de la gráfica: Sina Finance
Todo el sector de la IA explotó en discusión; todos empezaron a analizar dónde está lo tan impresionante de TurboQuant y cómo afecta
Incluso el CEO de Claudflare publicó un artículo para opinar: que es el momento DeepSeek de Google.
Muchos amigos con mucho ánimo al ver esta noticia quizá vayan a reírse a carcajadas en la cama: ¡Hecho bien! ¿Y la memoria y los discos de estado sólido que vienen después, también van a seguir cayendo? ¿Los que montamos PCs por nuestra cuenta por fin vamos a salir adelante?
Por supuesto, yo también espero que las cosas se desarrollen en esa dirección.
Para averiguar si nuestro deseo más sencillo y directo se puede cumplir, incluso hice un poco de tarea y me puse a aprender qué es exactamente TurboQuant.
El resultado fue que, antes de que yo llegara a entender cómo “sale Turbo” este TurboQuant, ocurrió un giro de 180 grados ——
A las 22:00 de la noche del 27 de marzo, Gao Jianyáng, postdoctorado del Instituto Federal Suizo de Tecnología de Zúrich, publicó en simultáneo en Zhihu, X y plataformas de arbitraje de ICLR, acusando de que el artículo académico que en su momento utilizó Google para presentar el algoritmo TurboQuant tiene graves irregularidades académicas.
El Dr. Gao descubrió que el TurboQuant de Google, en comparación con el algoritmo RaBitQ desarrollado por su propio equipo, coincide de manera muy alta; la capa base también usa “rotación aleatoria más la transformación JL”.
Que dos cosas sean similares también podría pasar por coincidencia heroica, pero lo realmente absurdo es que el Dr. Gao mostró correos electrónicos que prueban que ya en enero de 2025, el coautor Majid, de la segunda autoría de ese artículo de Google, ya había enviado correos específicamente para pedir ayuda al Dr. Gao, con tono bajo y sumiso, sobre cómo ejecutar el código de RaBitQ.
Entonces, ¿no es esto como “haberle investigado hasta el detalle” a la otra parte y, en el momento del cierre victorioso, no decir ni una palabra de lo que hizo el otro?
Ni siquiera con ocultar la fuente bastó: el equipo de Turbo Quant de Google incluso ignoró pruebas matemáticas establecidas y, directamente en el artículo, pisó a ciegas la teoría del Dr. Gao sin aportar evidencia.
El Dr. Gao considera que el algoritmo RaBitQ de su equipo ya ha sido estrictamente probado y alcanzó el nivel de primera categoría de la cúspide de la teoría de ciencias de la computación.
Pero el equipo de TurboQuant ni siquiera miró las deducciones; sin ninguna evidencia, directamente en el cuerpo principal puso al Dr. Gao la etiqueta de “teoría subóptima, análisis tosco”.
Lo que más deja a cualquiera sin palabras es el doble estándar “mágico” de Google en sus puntuaciones de benchmark.
En el artículo se jactan de que su algoritmo es más rápido por varios órdenes de magnitud que RaBitQ, pero las operaciones internas del “truco” son extremadamente viles:
Google les asignó una bestia de cómputo, la GPU A100, mientras que al competidor le asignaron una CPU con los multihilos apagados.
Y además, en lugar de usar el código C++ abierto y ya optimizado listo para usar, no tuvieron más que correr la versión Python medio a medio que tradujo el segundo autor del artículo de TurboQuant, lo cual añadió otra capa de debuff al algoritmo del Dr. Gao.
En un correo del mes de mayo del año pasado, el propio segundo autor de ese artículo admitió personalmente la operación asimétrica de “usar un solo núcleo para golpear varios núcleos”, y también admitió que se sincronizó esa situación con los otros coautores del artículo.
Sin embargo, en el artículo finalmente publicado, esa información de software y hardware —las dos capas que podían provocar diferencias cualitativas y de magnitud— fue borrada por completo.
Al mismo tiempo, los autores del artículo TurboQuant también se negaron a reconocer que su algoritmo se parece estructuralmente al RabitQ del Dr. Gao.
Ese artículo, que tiene errores evidentes, fue aceptado por la conferencia ICLR 2026; más adelante, fue entonces cuando apareció la historia con la que empezamos: mediante canales oficiales del Instituto de Investigación de Google se promovió masivamente ese artículo.
El Instituto de Investigación de Google solo mencionó lo impresionante que era TurboQuant y cuánto podía ahorrar memoria, pero no dijo ni una sola palabra sobre todas las fallas del propio artículo que respaldan TurboQuant.
Estas promociones, con vistas en redes sociales que ya alcanzaron decenas de millones de veces, provocaron luego las sacudidas del mercado bursátil de varios de los principales fabricantes de almacenamiento de la semana pasada.
El Dr. Gao estima que, al final, no pudo más con esto y por eso eligió publicar para dejarlo públicamente “a prueba de balas”.
Luego, del lado del mercado de almacenamiento, también se fue recuperando gradualmente después de la primera ola de temblores.
El mismo día en que Amir Zandieh respondió el correo del Dr. Gao, Micron Technology (MU) cerró con una subida de 0,5%; el volumen de operaciones fue de 16.246 millones de dólares, pero en el acumulado de la semana seguía cayendo 15,5%.
No sé qué sentirán los amigos después de escuchar esta historia.
Yo siento que soy como esa “zorro de campo” tonta que está en un huerto de calabazas viendo cómo los demás ya se terminan la calabaza y ya van a ir por la siguiente, y estoy preocupada por no quedarme atrás.
El resultado es que al voltear vi que los hermanos ya estaban escupiendo chispas —— esta calabaza, tiene veneno.
Lo que resulta aún más difícil de entender es que, en una controversia con un artículo claramente lleno de errores, Google solo lo sacó y lo usó para promocionarlo un año después; pero hasta antes de que el Dr. Gao saliera a “martillar” a Google, parece que no habíamos escuchado a nadie cuestionarlo.
El mercado no dijo nada, solo tembló; el así llamado “círculo de la IA” era solo una fiesta —— al fin alguien podía ponerle remedio a ese vicio de los grandes modelos de la IA de comerse la memoria sin parar.
Las pocas instituciones de análisis que aún mantienen la cabeza fría y algunos medios locales de auto-media en China, también solo señalaron que esto encajaba perfectamente con el “Paradoja de Jevons” de viejos del mundo Wall Street:
TurboQuant sí reduce los costos de inferencia de texto largo, pero en cuanto el umbral baja, las empresas definitivamente abrirán la mano para ponerse a desarrollar ——
Ahora el estándar dominante de las ventanas de contexto de modelos nacionales es 200K-256K, y unos pocos pueden llegar a 1M.
Pero los modelos principales en el extranjero ya pueden llegar a 1M. Ustedes dicen, si tienen este algoritmo, ¿los modelos extranjeros pensarán en ampliar la ventaja?, ¿los modelos nacionales pensarán en ponerse al día con determinación?
Entonces, cuando se lancen a gran escala todo tipo de aplicaciones multimodales y de contexto largo, porque es mejor para usar, habrá mucha más gente y más escenarios, y la computación y el hardware de almacenamiento que el mundo realmente necesita no solo no se ahorrará: al contrario, con la enorme cantidad de demanda, se desbordará directamente.
Pero la voz de cuestionar si TurboQuant realmente es tan impresionante, parece haber sido sepultada. En cierto modo, una gran parte de la gente, sin verificar y sin informarse sobre la situación real dentro del ámbito académico, dio por hecho que el TurboQuant de Google sí puede cambiar el mundo.
Claro, cuando lo digo no es para criticar a nadie, porque cuando yo vi el reporte de TurboQuant por primera vez, también me emocioné como un niño.
Lo que quiero dejar claro es que esta comedia de TurboQuant de Google expone la impaciencia de todos con la IA:
Para alimentar a ese monstruo de hardware devorador de recursos, ya hemos tolerado demasiado.
Desde finales del año pasado, incluso productos electrónicos como los teléfonos —casi uno por persona— han subido de precio debido a que también ha subido el precio de la memoria.
Fuente de la gráfica: “Xin Ke Du” Li Qinlin
En este punto, la naturaleza de las cosas cambia: —— la IA cara, al final, tendrá que pagarla toda la gente.
Y, de forma irónica, hasta ahora nadie ha podido explicar con claridad cuánta productividad real puede traer la IA, ni cuánta conveniencia puede traer.
A principios de este año, Anthropic publicó un estudio importante sobre el impacto de la IA en el mercado laboral.
El estudio muestra que, hasta ahora, solo algunas ocupaciones específicas usan IA, y la penetración de la IA en el trabajo de esas personas tampoco es tan alta como se imaginaba.
Fuente de la gráfica: Anthropic
Es decir, es un producto con baja penetración real en esa industria, que solo ayuda a ganar dinero a unos pocos y que en realidad no es tan útil; el impacto negativo que trae… está haciendo que toda la sociedad pague la cuenta.
En este momento, si tan solo hubiera un mensaje que me dijera que ahora existe algo que puede hacer que el apetito de la IA se vuelva un poco más pequeño y que ya no me suba los precios — entonces, obviamente, espero que ese mensaje sea verdadero.
Quizá por eso, un artículo con errores, un algoritmo que no se ha invertido para uso comercial, fue capaz de provocar una tormenta tan grande.
Sin embargo, por desgracia, todo ello al final se ha comprobado que fue solo un malentendido.
Escrito por: Shi Ang
Edición: Zao Qi & Miro
Gran cantidad de información, interpretación precisa, todo en la aplicación de Sina Finance