🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
Claude的中文税:问同样内容比英文多花65%token,OpenAI只多15%
据动察 Beating 监测,AI 研究者 Aran Komatsuzaki 把 Rich Sutton 的知名论文「苦涩的教训」(The Bitter Lesson)翻成 9 种语言,喂进 OpenAI、Gemini、Qwen、DeepSeek、Kimi、Claude 6 家模型的分词工具(tokenizer),以英文原文在 OpenAI 分词工具上的 token 数为 1 倍基准,看各语言在各模型上花多少倍。结果:同样的内容用中文问 Claude,token 消耗是基准的 1.65 倍;用 OpenAI 只有 1.15 倍。印地语在 Claude 上更夸张,超过基准 3 倍。6 家横评里 Anthropic 垫底。
翻译会改变文本长度,所以跟英文比的倍数不完全精确。但更有说服力的是同一段中文在不同模型上的表现(仍以同一基准):Kimi 只花 0.81 倍(比英文还少),Qwen 0.85 倍,到 Claude 上变成 1.65 倍。文本完全一样,差距纯粹是分词工具的效率问题。中国模型处理中文比英文还省,说明问题不在中文本身,而在分词工具有没有为该语言做过优化。
对用户来说,token 多了,API 直接变贵,模型回答前等待更久,上下文窗口也更快用完。分词工具的效率取决于训练数据中各语言的占比:英文数据多,英文词被高效压缩;非英文数据少,只能切得很碎。Aran 的结论:谁的市场大,谁就更省 token。