業界で新しいフラッグシップモデルDeepSeek V4を待ち望む中、DeepSeekチームは静かに新しい学術論文を発表しました。 この論文はDeepSeekと北京大学、清華大学の共同執筆によるもので、研究の方向性は大規模モデルの実際の応用を決定づける重要な要素である推論速度に向けられています。 ますます複雑化するAIエージェントに対して、高効率な基盤システムの解決策を提供します。 具体的には、新しい論文ではDualPathという革新的な推論システムを紹介しており、特にエージェントの作業負荷における大規模モデル(LLM)の推論性能を最適化することを目的としています。 「二重パス読み取りKV-キャッシュ(記憶キャッシュに類似)」メカニズムを導入することで、ストレージネットワークの負荷を再配分し、オフライン推論のスループットを最大1.87倍向上させ、オンラインサービスの毎秒エージェントの実行数を平均1.96倍向上させました。 論文の序論部分では、大規模モデルが単一の対話型ロボットや独立した推論モデルから、迅速にエージェントシステムへと進化していることが述べられています。 このエージェントシステムは、自律的に計画を立て、ツールを呼び出し、複数回の対話を通じて実際のタスクを解決することができます。 このアプリケーションパラダイムの変化は、大規模モデルの推論作業負荷に重大な変革をもたらしました:従来の人間と大規模モデルの相互作用から、人間-大規模モデル-環境の相互作用へと移行し、対話の回数は数十回、さらには数百回に達することがあります。 (第一财经)
DeepSeekまた新しい論文を公開
業界で新しいフラッグシップモデルDeepSeek V4を待ち望む中、DeepSeekチームは静かに新しい学術論文を発表しました。
この論文はDeepSeekと北京大学、清華大学の共同執筆によるもので、研究の方向性は大規模モデルの実際の応用を決定づける重要な要素である推論速度に向けられています。
ますます複雑化するAIエージェントに対して、高効率な基盤システムの解決策を提供します。
具体的には、新しい論文ではDualPathという革新的な推論システムを紹介しており、特にエージェントの作業負荷における大規模モデル(LLM)の推論性能を最適化することを目的としています。
「二重パス読み取りKV-キャッシュ(記憶キャッシュに類似)」メカニズムを導入することで、ストレージネットワークの負荷を再配分し、オフライン推論のスループットを最大1.87倍向上させ、オンラインサービスの毎秒エージェントの実行数を平均1.96倍向上させました。
論文の序論部分では、大規模モデルが単一の対話型ロボットや独立した推論モデルから、迅速にエージェントシステムへと進化していることが述べられています。
このエージェントシステムは、自律的に計画を立て、ツールを呼び出し、複数回の対話を通じて実際のタスクを解決することができます。
このアプリケーションパラダイムの変化は、大規模モデルの推論作業負荷に重大な変革をもたらしました:従来の人間と大規模モデルの相互作用から、人間-大規模モデル-環境の相互作用へと移行し、対話の回数は数十回、さらには数百回に達することがあります。
(第一财经)