Por que os grandes modelos não conseguem gerar 「马嘉祺」? A varredura na lista completa de tokens do MiniMax revelou que quase 5% dos tokens foram esquecidos durante o treino posterior

De acordo com o monitoramento do Beating, a MiniMax publicou um blog técnico, revelando o processo de investigação da causa raiz que impede seu grande modelo da série M2 de gerar o nome “马嘉祺”. A investigação começou com um caso específico e, por fim, revelou um problema de degradação sistêmica que afeta toda a lista de vocabulário.
A causa raiz foi que o tokenizador (componente que divide o texto em unidades processáveis pelo modelo) durante o treinamento fundiu “嘉祺” em um token independente.
Na fase de pré-treinamento, o modelo viu uma grande quantidade de textos da internet e aprendeu esse token; mas nos dados de diálogo posteriores ao treinamento, havia menos de 5 exemplos contendo “嘉祺”.
Durante o pós-treinamento, tokens de alta frequência como marcações tool_call, símbolos de código, etc., continuaram a atualizar o espaço vetorial ao redor, empurrando tokens de baixa frequência como “嘉祺” na direção errada.
O modelo ainda “reconhece” 马嘉祺 e consegue responder informações relacionadas com precisão, mas perdeu a capacidade de gerar esse token na saída.
A equipe então realizou uma varredura completa na lista de vocabulário, que contém cerca de 200 mil tokens, e descobriu que aproximadamente 4,9% dos tokens apresentaram degradação significativa.
A degradação mais severa ocorreu no japonês: 29,7% dos tokens japoneses degradaram-se significativamente, muito acima de coreano (3,3%), russo (3,7%), chinês (3,9%) e inglês (3,5%).
Entre os tokens mais degradados estavam palavras de SEO da internet como “传奇私服” e “无痛人流”, que possuem o mesmo mecanismo de “嘉祺”.
A severa degradação no japonês também resolveu um antigo mistério. Anteriormente, o modelo às vezes misturava caracteres russos ou coreanos em diálogos em japonês, sem uma causa aparente.
A análise mostrou que, após o deslocamento dos parâmetros dos tokens japoneses, eles se confundiam com tokens de outras línguas no espaço vetorial, o que causava ativação incorreta dos tokens japoneses (mistura de idiomas) e também empurrava tokens chineses de baixa frequência para fora do intervalo de probabilidade normal (esquecimento de tokens).
A solução foi criar um conjunto de dados sintéticos que cobrissem toda a lista de vocabulário, permitindo que o modelo treinasse cada token com tarefas simples de repetição.
O efeito foi imediato: a proporção de respostas em japonês que continham caracteres russos caiu de 47% para 1%, e a estabilidade do parâmetro de saída de toda a lista de vocabulário (similaridade do cosseno) aumentou de um mínimo de 0,329 para valores superiores a 0,97.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar