Google emite nuevamente una "aclaración técnica", lo que genera controversia sobre el artículo que hizo desplomar las acciones globales de almacenamiento

robot
Generación de resúmenes en curso

¿La aclaración técnica de AI · TurboQuant puede calmar la controversia académica?

El 1 de abril, tras casi una semana de silencio, el equipo de la polémica publicación sobre el algoritmo de compresión TurboQuant de Google finalmente respondió. Sin embargo, esta última “aclaración técnica” aún no parece haber disipado la controversia; ante las acusaciones de “similitud en tecnologías clave”, Google argumentó que la rotación aleatoria es una técnica estándar y que los errores en los benchmarks experimentales “no son importantes para los hechos”.

En la última semana de marzo, este artículo, promocionado en el blog oficial de Google, causó un impacto que derrumbó las acciones globales de chips de almacenamiento, con empresas como Micron, SK Hynix y Samsung Electronics perdiendo más de 90 mil millones de dólares en valor de mercado. El artículo señalaba que el algoritmo de compresión TurboQuant podía reducir al menos 6 veces el uso de memoria KV en modelos de lenguaje grande, con una velocidad hasta 8 veces mayor, sin pérdida de precisión.

El pánico en Wall Street radica en que, si un software puede comprimir la demanda de memoria de IA en 6 veces, la lógica de crecimiento del hardware de chips tendría que ser reescrita.

Sin embargo, la reversión llegó rápidamente. El 27 de marzo, Gao Jianyang, autor de RaBitQ y becario en la ETH de Zúrich, publicó en Zhihu un extenso artículo de diez mil palabras acusando al equipo de Google de problemas académicos sistémicos, lo que rápidamente desvió la atención hacia cuestionamientos sobre la integridad académica de Google.

La comunidad académica en general considera que RaBitQ propuso primero un método original, y que TurboQuant lo optimizó sin la debida citación y respeto, incluso haciendo una valoración injusta.

El 1 de abril, frente a las acusaciones externas, el segundo autor del artículo, Majid Daliri, finalmente salió a la luz y publicó en la plataforma OpenReview una aclaración técnica con cuatro puntos.

En cuanto a la novedad en la tecnología central, Google argumentó que el método principal de TurboQuant no proviene de RaBitQ. Porque “la rotación aleatoria es una técnica estándar y omnipresente en la literatura de cuantización”, que ya se usaba ampliamente antes de la aparición de RaBitQ. La verdadera innovación de TurboQuant radica en derivar la distribución de coordenadas tras la rotación.

Pero las reglas académicas dictan que: si alguien es el primero en aplicar “una rueda” a un “auto” y construir un coche completo, los posteriores que la citan y reconocen son un acto de cortesía académica básica. Google minimizó los logros previos como un conocimiento común de la industria, lo que equivale a degradar la contribución del pionero.

En segundo lugar, respecto a la acusación de que la teoría de RaBitQ fue calificada como “subóptima”, los autores admitieron que fue por no haber revisado cuidadosamente el apéndice, donde omitieron un factor constante, y por ello llegaron a una conclusión apresurada, “lo que nos llevó a describir inicialmente ese método como subóptimo”. Tras un análisis más detallado, descubrieron que RaBitQ en realidad es óptimo, y el equipo está actualizando el manuscrito de TurboQuant.

No obstante, que un artículo de conferencia de alto nivel base su evaluación negativa de la teoría central en “no haber visto bien el apéndice” genera inevitablemente dudas sobre la solidez de esa explicación.

En tercer lugar, respecto a la acusación de “atrapar a la competencia y correr”, Daliri señaló directamente que, incluso si se omitiera por completo la comparación en tiempo de ejecución con RaBitQ, la influencia científica y la validez del artículo seguirían siendo básicamente las mismas. Porque la contribución principal de TurboQuant radica en el equilibrio entre compresión y calidad, no en una aceleración específica.

Gao Jianyang había revelado en una carta pública que, al probar RaBitQ, el equipo de Google usó CPU de un solo núcleo y desactivó multihilo, mientras que al probar TurboQuant usaron una GPU Nvidia A100. Aunque el equipo afirmó que la velocidad no era el núcleo del análisis, el artículo aún destacó la velocidad como uno de sus principales puntos de venta.

Finalmente, Google insinuó en su respuesta que la otra parte “tiene malas intenciones”, señalando que el artículo fue publicado en arXiv en abril de 2025, y que la parte acusadora tuvo casi un año para plantear problemas a través de canales académicos, pero esperó a que el artículo ganara atención general para hacer escándalo.

Según respuestas previas de Gao Jianyang, en mayo de 2025 ambas partes intercambiaron correos electrónicos en privado, y en noviembre de 2025 incluso contactaron al comité de ICLR, sin obtener respuesta efectiva. Solo cuando Google elevó el artículo a una exposición masiva en canales oficiales, la corrección académica se volvió apremiante.

En OpenReview, un investigador comentó que esto es un problema grave que merece mayor atención: “Es frustrante ver cómo las personas que trabajan en fundamentos reales son ignoradas, mientras que organizaciones grandes e influyentes promocionan sus logros a toda costa.” En ese sentido, parece más una competencia de relaciones públicas con las grandes empresas que un asunto científico.

Al mismo tiempo, los revisores del artículo de TurboQuant también expresaron su postura, afirmando que, debido a su análisis teórico y resultados experimentales, en su momento dieron una alta valoración a la publicación.

“Pero también señalé claramente que tanto RaBitQ como TurboQuant usan rotación aleatoria, y pedí a los autores de TurboQuant que compararan cómo las diferencias en el diseño entre ambos afectan el rendimiento.” Este revisor afirmó que la práctica académica correcta sería discutir en profundidad las diferencias entre RaBitQ y TurboQuant en el artículo, pero que al revisar, “me sorprendió que RaBitQ solo se mencionara una vez en la sección experimental del artículo principal”.

Indudablemente, TurboQuant tiene potencial comercial en el nivel técnico. Un máster en inteligencia artificial analizó en Zhihu que, en escenarios de inferencia de grandes modelos, la ocupación de memoria KV en la caché determina directamente la cantidad de solicitudes que una sola tarjeta puede manejar simultáneamente, siendo un indicador económico clave para los proveedores de servicios de inferencia. Con la misma tarjeta, si la concurrencia aumenta 6 veces, el costo por inferencia por solicitud puede reducirse en un factor similar. Para las empresas de IA que procesan miles de millones de llamadas API diarias, esto sería un gran ahorro de costos, y esa es la razón del impacto en el mercado bursátil.

Este artículo de Google se publicará en la conferencia top de aprendizaje automático ICLR 2026 a finales de abril, pero parece que el equipo primero debe superar esta controversia académica. Cómo termine esta polémica aún está por verse.

(Este artículo proviene de First Financial)

Lecturas relacionadas:

¿El equipo de TurboQuant incurrió en mala conducta académica? Google respondió, pero la controversia se intensificó.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado