Na questão da autenticidade do conteúdo gerado por grandes modelos, eles oferecem uma interpretação oficial. Em relação ao fenômeno de o modelo mencionar frequentemente a OpenAI e o ChatGPT nas respostas, a DeepSeek explica que isso não foi uma designação intencional, mas sim uma consequência do estado objetivo dos dados de treino — uma grande quantidade de conteúdo externo gerado existe objetivamente nos corpus de páginas web, e esses conteúdos, ao serem incorporados no treino do modelo base, tiveram uma influência indireta, mas mensurável. Essa descoberta é de grande importância para compreender as características comportamentais dos LLMs e sua dependência de dados.
Mais importante ainda, é o planejamento deles para as direções futuras de capacidade. A tese define claramente que "saída estruturada" e "uso de ferramentas" são os principais focos de desenvolvimento do R2. A saída estruturada permite que o modelo organize informações em formatos específicos, aumentando sua utilidade em aplicações práticas; o uso de ferramentas envolve a capacidade do modelo de interagir com sistemas externos, o que é crucial para expandir os limites de aplicação prática de modelos de raciocínio. Essas direções de iteração tecnológica refletem uma tendência de transição de geração de texto puro para multimodalidade e forte capacidade de interação.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
8
Republicar
Partilhar
Comentar
0/400
SignatureLiquidator
· 01-10 17:22
哈,DeepSeek又在低调搞事情啊,都不知道什么时候就出新版本了
等等,他们还在甩锅训练数据?说什么客观现状...行吧,这理由确实站得住脚
Estruturação de saída e uso de ferramentas parecem bons, só tenho medo de ser mais um progresso de papel
Ver originalResponder0
SatsStacking
· 01-10 09:19
嗯...dados de poluição ainda são atribuídos de forma bastante direta, mas essa explicação realmente é convincente
Saída estruturada + chamada de ferramenta, isso é o que todos os jogadores querem, apenas conversar realmente não tem muita competitividade
A atualização do DeepSeek parece bastante sólida desta vez, sem aquele tom de exagero
Sobre os dados de treinamento, na verdade, ninguém consegue evitar isso, e ao invés de esconder, é melhor ser honesto
Se o R2 realmente fizer um bom trabalho com as capacidades das ferramentas, esse pode ser o momento realmente digno de atenção
A questão da qualidade do conjunto de dados realmente preocupa toda a indústria, o DeepSeek se arriscou a dizer isso abertamente, o que também é uma demonstração de sinceridade
Essa atualização não trouxe muitas surpresas, mas pelo menos é lógica e não engana as pessoas
Ver originalResponder0
LightningWallet
· 01-09 12:25
哈,DeepSeek esta atualização tem algo de especial, saída estruturada + integração de ferramentas, parece que realmente estão a preparar uma grande jogada
Ter os dados de treino a influenciar o comportamento do modelo é verdade, aquela quantidade de lixo gerado por IA na internet realmente contamina
O R2 deve estar a chegar, multimodalidade é o futuro
O importante é se realmente funciona bem, não seja apenas para parecer bem na teoria
Ver originalResponder0
SchrodingerWallet
· 01-08 07:45
Mais uma vez, DeepSeek é discreto e avançado, realmente impressionante. Você não poderia emitir uma declaração para que possamos saber?
Nos dados de treinamento, tudo é uma sombra do ChatGPT... Agora, qualquer coisa que diga parece uma repetição do adversário.
Saída estruturada + uso de ferramentas, parece que estão preparando a próxima geração de praticidade. O R2 vai realmente chegar?
A questão da poluição de dados, todo o setor não consegue escapar dela. DeepSeek ter a coragem de falar sobre isso parece mais honesto.
A ambição do R2 não é pequena, passando de geração de texto para interação multimodal. Um pouco radical, mas eu gosto.
Este roteiro técnico revela bastante, está insinuando onde está seu limite máximo.
O uso de ferramentas é realmente crucial. Sem isso, mesmo um LLM forte é apenas uma peça decorativa.
A versão V2 do artigo foi lançada há tanto tempo que só agora alguém discute. A popularidade realmente não é das melhores.
Ver originalResponder0
MemeTokenGenius
· 01-08 07:41
Haha, a deepseek está novamente a fazer as suas brincadeiras, a estruturação de saída e o uso de ferramentas são realmente excelentes
É bastante interessante que os dados de treino estejam cheios de vestígios do ChatGPT, na verdade, é uma questão do DNA da internet
Será que o R2 vai decolar diretamente? Estou um pouco ansioso
Ver originalResponder0
GasGuzzler
· 01-08 07:41
A questão da toxicidade dos dados realmente não pode ser ignorada, é difícil dizer que a presença de vestígios do ChatGPT no conjunto de treino não tenha impacto algum.
No entanto, a combinação de saída estruturada + chamadas de ferramentas é a chave, parece ser a verdadeira inovação prática.
A DeepSeek está mais uma vez agindo de forma discreta... só publica o artigo depois de terminar o trabalho.
Se as capacidades das ferramentas forem realmente bem desenvolvidas, isso poderá ameaçar de fato o ecossistema da OpenAI.
Ver originalResponder0
ForkPrince
· 01-08 07:29
嗯...dados de poluição finalmente alguém se atreve a falar bem, não é bug é feature haha
Saída estruturada e chamadas de ferramentas são confiáveis, se o R2 realmente conseguir fazer isso será incrível
A discrição do DeepSeek é de verdade, sempre lançando artigos silenciosamente, muito melhor do que aqueles que ficam gritando o tempo todo
Se os dados de treino forem todos de ChatGPT, não é de admirar que o modelo sempre mencione eles, não importa o quanto tentem lavar isso
Quando a capacidade de usar ferramentas for realmente desenvolvida, o modelo de raciocínio será realmente útil, estou cansado de apenas conversar
Ver originalResponder0
wrekt_but_learning
· 01-08 07:21
Os dados determinam tudo, não é de admirar que estejam sempre a mencionar a OpenAI... Então, o DeepSeek está a insinuar que há um problema com o conjunto de treino?
---
Saída estruturada + chamada de ferramentas, essa é a verdadeira chave para abrir a porta da utilidade, a era da geração de texto puro realmente está a acabar
---
Espera aí, eles dizem "impacto indireto mas mensurável"... Não é isso que implica que o modelo pode ser influenciado pelos dados de treino?
---
O roteiro R2 é interessante, parece que o DeepSeek está a seguir o seu próprio caminho, sem seguir a tendência do raciocínio puro
---
Os dados de treino estão cheios de conteúdo externo, como é que esse sistema garante independência...
DeepSeek低调推出R1论文V2版本,披露了几项关键技术进展。
Na questão da autenticidade do conteúdo gerado por grandes modelos, eles oferecem uma interpretação oficial. Em relação ao fenômeno de o modelo mencionar frequentemente a OpenAI e o ChatGPT nas respostas, a DeepSeek explica que isso não foi uma designação intencional, mas sim uma consequência do estado objetivo dos dados de treino — uma grande quantidade de conteúdo externo gerado existe objetivamente nos corpus de páginas web, e esses conteúdos, ao serem incorporados no treino do modelo base, tiveram uma influência indireta, mas mensurável. Essa descoberta é de grande importância para compreender as características comportamentais dos LLMs e sua dependência de dados.
Mais importante ainda, é o planejamento deles para as direções futuras de capacidade. A tese define claramente que "saída estruturada" e "uso de ferramentas" são os principais focos de desenvolvimento do R2. A saída estruturada permite que o modelo organize informações em formatos específicos, aumentando sua utilidade em aplicações práticas; o uso de ferramentas envolve a capacidade do modelo de interagir com sistemas externos, o que é crucial para expandir os limites de aplicação prática de modelos de raciocínio. Essas direções de iteração tecnológica refletem uma tendência de transição de geração de texto puro para multimodalidade e forte capacidade de interação.