DeepSeek低调推出R1论文V2版本,披露了几项关键技术进展。



Na questão da autenticidade do conteúdo gerado por grandes modelos, eles oferecem uma interpretação oficial. Em relação ao fenômeno de o modelo mencionar frequentemente a OpenAI e o ChatGPT nas respostas, a DeepSeek explica que isso não foi uma designação intencional, mas sim uma consequência do estado objetivo dos dados de treino — uma grande quantidade de conteúdo externo gerado existe objetivamente nos corpus de páginas web, e esses conteúdos, ao serem incorporados no treino do modelo base, tiveram uma influência indireta, mas mensurável. Essa descoberta é de grande importância para compreender as características comportamentais dos LLMs e sua dependência de dados.

Mais importante ainda, é o planejamento deles para as direções futuras de capacidade. A tese define claramente que "saída estruturada" e "uso de ferramentas" são os principais focos de desenvolvimento do R2. A saída estruturada permite que o modelo organize informações em formatos específicos, aumentando sua utilidade em aplicações práticas; o uso de ferramentas envolve a capacidade do modelo de interagir com sistemas externos, o que é crucial para expandir os limites de aplicação prática de modelos de raciocínio. Essas direções de iteração tecnológica refletem uma tendência de transição de geração de texto puro para multimodalidade e forte capacidade de interação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 8
  • Republicar
  • Partilhar
Comentar
0/400
SignatureLiquidatorvip
· 01-10 17:22
哈,DeepSeek又在低调搞事情啊,都不知道什么时候就出新版本了 等等,他们还在甩锅训练数据?说什么客观现状...行吧,这理由确实站得住脚 Estruturação de saída e uso de ferramentas parecem bons, só tenho medo de ser mais um progresso de papel
Ver originalResponder0
SatsStackingvip
· 01-10 09:19
嗯...dados de poluição ainda são atribuídos de forma bastante direta, mas essa explicação realmente é convincente Saída estruturada + chamada de ferramenta, isso é o que todos os jogadores querem, apenas conversar realmente não tem muita competitividade A atualização do DeepSeek parece bastante sólida desta vez, sem aquele tom de exagero Sobre os dados de treinamento, na verdade, ninguém consegue evitar isso, e ao invés de esconder, é melhor ser honesto Se o R2 realmente fizer um bom trabalho com as capacidades das ferramentas, esse pode ser o momento realmente digno de atenção A questão da qualidade do conjunto de dados realmente preocupa toda a indústria, o DeepSeek se arriscou a dizer isso abertamente, o que também é uma demonstração de sinceridade Essa atualização não trouxe muitas surpresas, mas pelo menos é lógica e não engana as pessoas
Ver originalResponder0
LightningWalletvip
· 01-09 12:25
哈,DeepSeek esta atualização tem algo de especial, saída estruturada + integração de ferramentas, parece que realmente estão a preparar uma grande jogada Ter os dados de treino a influenciar o comportamento do modelo é verdade, aquela quantidade de lixo gerado por IA na internet realmente contamina O R2 deve estar a chegar, multimodalidade é o futuro O importante é se realmente funciona bem, não seja apenas para parecer bem na teoria
Ver originalResponder0
SchrodingerWalletvip
· 01-08 07:45
Mais uma vez, DeepSeek é discreto e avançado, realmente impressionante. Você não poderia emitir uma declaração para que possamos saber? Nos dados de treinamento, tudo é uma sombra do ChatGPT... Agora, qualquer coisa que diga parece uma repetição do adversário. Saída estruturada + uso de ferramentas, parece que estão preparando a próxima geração de praticidade. O R2 vai realmente chegar? A questão da poluição de dados, todo o setor não consegue escapar dela. DeepSeek ter a coragem de falar sobre isso parece mais honesto. A ambição do R2 não é pequena, passando de geração de texto para interação multimodal. Um pouco radical, mas eu gosto. Este roteiro técnico revela bastante, está insinuando onde está seu limite máximo. O uso de ferramentas é realmente crucial. Sem isso, mesmo um LLM forte é apenas uma peça decorativa. A versão V2 do artigo foi lançada há tanto tempo que só agora alguém discute. A popularidade realmente não é das melhores.
Ver originalResponder0
MemeTokenGeniusvip
· 01-08 07:41
Haha, a deepseek está novamente a fazer as suas brincadeiras, a estruturação de saída e o uso de ferramentas são realmente excelentes É bastante interessante que os dados de treino estejam cheios de vestígios do ChatGPT, na verdade, é uma questão do DNA da internet Será que o R2 vai decolar diretamente? Estou um pouco ansioso
Ver originalResponder0
GasGuzzlervip
· 01-08 07:41
A questão da toxicidade dos dados realmente não pode ser ignorada, é difícil dizer que a presença de vestígios do ChatGPT no conjunto de treino não tenha impacto algum. No entanto, a combinação de saída estruturada + chamadas de ferramentas é a chave, parece ser a verdadeira inovação prática. A DeepSeek está mais uma vez agindo de forma discreta... só publica o artigo depois de terminar o trabalho. Se as capacidades das ferramentas forem realmente bem desenvolvidas, isso poderá ameaçar de fato o ecossistema da OpenAI.
Ver originalResponder0
ForkPrincevip
· 01-08 07:29
嗯...dados de poluição finalmente alguém se atreve a falar bem, não é bug é feature haha Saída estruturada e chamadas de ferramentas são confiáveis, se o R2 realmente conseguir fazer isso será incrível A discrição do DeepSeek é de verdade, sempre lançando artigos silenciosamente, muito melhor do que aqueles que ficam gritando o tempo todo Se os dados de treino forem todos de ChatGPT, não é de admirar que o modelo sempre mencione eles, não importa o quanto tentem lavar isso Quando a capacidade de usar ferramentas for realmente desenvolvida, o modelo de raciocínio será realmente útil, estou cansado de apenas conversar
Ver originalResponder0
wrekt_but_learningvip
· 01-08 07:21
Os dados determinam tudo, não é de admirar que estejam sempre a mencionar a OpenAI... Então, o DeepSeek está a insinuar que há um problema com o conjunto de treino? --- Saída estruturada + chamada de ferramentas, essa é a verdadeira chave para abrir a porta da utilidade, a era da geração de texto puro realmente está a acabar --- Espera aí, eles dizem "impacto indireto mas mensurável"... Não é isso que implica que o modelo pode ser influenciado pelos dados de treino? --- O roteiro R2 é interessante, parece que o DeepSeek está a seguir o seu próprio caminho, sem seguir a tendência do raciocínio puro --- Os dados de treino estão cheios de conteúdo externo, como é que esse sistema garante independência...
Ver originalResponder0
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)