El chino de Claude consume un 65% más de tokens que en inglés para la misma consulta, mientras que OpenAI solo un 15% más

robot
Generación de resúmenes en curso

Según el monitoreo de Beating, el investigador de IA Aran Komatsuzaki tradujo el conocido artículo de Rich Sutton «Las amargas lecciones» (The Bitter Lesson) a 9 idiomas, y lo alimentó en las herramientas de tokenización de 6 modelos: OpenAI, Gemini, Qwen, DeepSeek, Kimi y Claude. Tomando como referencia el número de tokens en la versión original en inglés en la herramienta de tokenización de OpenAI, se calculó cuántas veces más se usaron en cada idioma en cada modelo. El resultado: el mismo contenido preguntado en chino a Claude consume 1.65 veces más tokens que la referencia; en OpenAI solo 1.15 veces. El hindi en Claude es aún más exagerado, con más de 3 veces la referencia. Entre los 6 modelos, Anthropic quedó en último lugar en la comparación.

La traducción altera la longitud del texto, por lo que la proporción respecto al inglés no es completamente precisa. Pero lo más convincente es el rendimiento del mismo fragmento en chino en diferentes modelos (siguiendo la misma referencia): Kimi solo usa 0.81 veces (menos que en inglés), Qwen 0.85 veces, y en Claude llega a 1.65 veces. El texto es exactamente el mismo, la diferencia es puramente la eficiencia de la herramienta de tokenización. Los modelos chinos procesan el chino con menos tokens que el inglés, lo que indica que el problema no está en el chino en sí, sino en si la herramienta de tokenización ha sido optimizada para ese idioma.

Para los usuarios, más tokens significan un costo directo mayor en la API, mayor tiempo de espera antes de que el modelo responda, y un uso más rápido del contexto de la ventana. La eficiencia de la herramienta de tokenización depende de la proporción de cada idioma en los datos de entrenamiento: más datos en inglés, mayor compresión eficiente de las palabras en inglés; menos datos en otros idiomas, solo se puede dividir en fragmentos muy pequeños. La conclusión de Aran: quien tenga un mercado más grande, ahorra más tokens.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado