なぜ大規模モデルは「馬嘉祺」を書き出せないのか?MiniMax全語彙表のスキャンで、約5%のトークンが後の訓練で忘れられていることが判明

据 动察 Beating 监测,MiniMax 发布技术博客,披露其 M2 系列大模型无法输出人名「马嘉祺」的根因排查过程。
排查从一个个例出发,最终揭示了一个波及整个词表的系统性退化问题。
根因是分词器(tokenizer,将文字切分为模型处理单元的组件)在训练时将「嘉祺」合并成了一个独立 token。
预训练阶段模型见过大量互联网文本,学会了这个 token;但后训练的对话数据中,包含「嘉祺」的样本不到 5 条。
后训练过程中,tool_call 标记、代码符号等高频 token 持续更新周围的向量空间,把「嘉祺」这类低频 token 挤到了错误的方向。
模型仍然「认识」马嘉祺,能准确回答相关信息,丢失的只是输出这个 token 的能力。
团队随后对约 20 万 token 的完整词表做了全量扫描,发现约 4.9% 的 token 发生了显著退化。
退化最严重的是日语:29.7% 的日语 token 显著退化,远超韩语 3.3%、俄语 3.7%、中文 3.9% 和英文 3.5%。
退化排名靠前的还有「传奇私服」「无痛人流」等互联网 SEO 垃圾词,机制与「嘉祺」完全相同。
日语的严重退化还解开了一个旧谜。此前模型在日语对话中偶尔混入俄语或韩语字符,一直找不到原因。
这次分析表明,日语 token 参数漂移后与其他语言的 token 在向量空间中混淆,既导致日语 token 被错误激活(语言混杂),也把相邻的低频中文 token 挤出正常概率范围(token 遗忘)。
修复方案是构造一份覆盖全词表的合成数据,让模型用简单的复读任务练到每个 token。
效果立竿见影:日语回答中混入俄文字符的比例从 47% 降至 1%,全词表输出参数稳定度(余弦相似度)从最低 0.329 升至全部高于 0.97。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン