DeepSeek低调推出R1論文V2バージョン、いくつかの重要な技術進展を明らかにしました。



大規模モデルによるコンテンツ生成の真実性の問題に関して、彼らは公式の解釈を示しています。モデルが回答時に頻繁にOpenAIやChatGPTを言及する現象について、DeepSeekはこれが意図的な設計ではなく、訓練データの客観的な現状に起因すると説明しています——ウェブコーパスには大量の外部生成コンテンツが客観的に存在し、これらが基盤モデルの訓練に取り込まれる際に、間接的ながら測定可能な影響を与えています。この発見は、LLMの行動特性やデータ依存性を理解する上で重要な意義を持ちます。

さらに注目すべきは、彼らの将来の能力方向性の計画です。論文では、「構造化出力」と「ツール使用」をR2の核心的な発展方向として明確に位置付けています。構造化出力は、モデルが特定のフォーマットに従って情報を整理できるようにし、実用性を向上させます;ツール使用は、モデルと外部システムとのインタラクション能力に関わり、推論モデルの実用的な応用範囲を拡大する上で極めて重要です。これらの技術的なイテレーションの方向性は、純粋なテキスト生成からマルチモーダルで強いインタラクション能力を持つ方向への変遷を反映しています。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 8
  • リポスト
  • 共有
コメント
0/400
SignatureLiquidatorvip
· 01-10 17:22
ハ、DeepSeekはまたこっそりと何かを仕掛けているのか。いつ新しいバージョンが出るのか全然わからない。 待って、彼らはまだトレーニングデータの責任転嫁をしているのか?客観的な現状について何か言っているけど...まあ、その理由は確かに筋が通っている。 構造化出力とツールの使用は良さそうだけど、また紙の進捗バーに過ぎないのではと心配している。
原文表示返信0
SatsStackingvip
· 01-10 09:19
うん...データ汚染の責任を直接的に押し付けるのはかなりストレートだが、この言い訳は確かに筋が通っている 構造化出力+ツール呼び出し、これこそプレイヤーが本当に欲しいものだ。純粋なチャットだけでは競争力がなくなってきている DeepSeekの今回のアップデートはやはりかなり堅実に見える。誇張した感じはない トレーニングデータの問題は正直誰も避けて通れないものであり、隠すよりも正直に向き合う方が良い R2が本当にツールの能力をしっかりと仕上げたら、それこそ本当に注目すべき瞬間になるかもしれない データセットの品質問題は確かに業界全体の悩みだが、DeepSeekが率直に言及したのは誠意の表れだろう 今回のアップデートは特に驚きはないが、少なくとも論理的に一貫しており、人を騙そうとしていない
原文表示返信0
LightningWalletvip
· 01-09 12:25
ハ、DeepSeekのこのアップデートはなかなか良いね。構造化出力+ツール連携、やっぱり大技を仕掛けてきたようだ。 学習データがモデルの挙動に影響を与えるってのはその通りだね。ネット上のAI生成のゴミは確かに汚染されやすい。 R2が来るのかな、多模態こそ未来だ。 肝心なのは本当に使えるかどうかだね、また見かけ倒しにならないことを祈る。
原文表示返信0
SchrodingerWalletvip
· 01-08 07:45
DeepSeekはまた低調でありながら進歩していて、本当に君らしいね。声明を出して私たちに知らせてくれないのかな 学習データはChatGPTの影だらけだ...これで良かった、何を言っても相手を繰り返しているようなものだ 構造化出力+ツール使用、これは次世代の実用性を敷く準備中のように聞こえるね。R2が本気で来るのか データ汚染は業界全体が逃げられない問題だ。DeepSeekが敢えて言及することで、かえって誠実さが目立つ R2の野心は小さくないな。テキスト生成からいきなりマルチモーダル相互作用へ、ちょっと激進的だが私は好きだ このテクノロジーロードマップは透明性が高く、自分たちの天井がどこにあるのかを暗に示しているようなものだ ツール使用はこのブロック内で本当の鍵となるね。これがないと、LLMがどれだけ強力でも花瓶に過ぎない 論文V2が出てからこんなに長いのに、やっと議論されるようになった。確かに話題性は期待通りではない
原文表示返信0
MemeTokenGeniusvip
· 01-08 07:41
ははDeepSeekってまた裏でやってるんですね、構造化された出力とツール使用の部分は本当に素晴らしいですね トレーニングデータ全体にChatGPTの痕跡があるのも面白いですね、つまりはインターネットDNAの問題ですね R2は直接離陸しませんか、ちょっと期待してますね
原文表示返信0
GasGuzzlervip
· 01-08 07:41
データ毒性の問題は確かに避けられないもので、訓練データセットにChatGPTの痕跡が含まれていると、完全に影響を受けていないとは言い難い。 しかし、構造化出力+ツール呼び出しの組み合わせこそが鍵であり、これこそが実用化への本当の突破口だと感じる。 DeepSeekはまたこっそりとこの手法を進めており、控えめすぎて驚くほど... 完成してから論文を発表する。 ツールの能力が本当に向上すれば、それこそがOpenAIのエコシステムに対する本当の脅威となる。
原文表示返信0
ForkPrincevip
· 01-08 07:29
うーん...データ汚染の件について、やっとちゃんと話す人が出てきたね。バグじゃなくてfeatureだよ、ハハ 構造化出力とツール呼び出しの二つの方向性は信頼できる。R2が本当にこれを実現できれば最高だね DeepSeekの控えめな感じは本物だね。毎回こっそり論文を公開していて、いくつかの毎日騒いでいるやつよりずっと良い 訓練データがChatGPTのものばかりだから、モデルがいつも彼らを引き合いに出すのも無理はない。どんなに洗っても白にはならないだろうね ツール使用能力が上がれば、推論モデルは本当に役に立つ場所が出てくる。純粋なチャットにはもう飽きたよ
原文表示返信0
wrekt_but_learningvip
· 01-08 07:21
データがすべてを決定する、だからこそOpenAIをいつも言及しているのか... それならDeepSeekは訓練データに問題があることを暗示しているのか? --- 構造化出力+ツール呼び出し、これこそ実用性の扉を開く鍵だ。純粋なテキスト生成の時代は本当に終わりつつある。 --- ちょっと待って、「間接的だが測定可能な影響」って...これってモデルが訓練データに偏ることを間接的に認めているのと同じじゃないか。 --- R2のロードマップは面白い。DeepSeekは自分の道を進んでいる感じで、純粋な推論に流されていない。 --- 訓練データには外部コンテンツが満載だけど、これってどうやって独立性を保証するんだ...
原文表示返信0
  • ピン