杨植麟、张鹏、罗福莉同台対話:ロブスター熱後、AI変局の行方は?

**蓝鲸新闻3月27日讯(記者 朱俊熹)**3月27日、在2026中関村論壇年会的AI開源前沿論壇中、一場関於「OpenClawとAI開源」の円卓論壇が特に注目を集めた。月之暗面の創業者楊植麟がモデレーターとして登壇し、対話に参加したゲストには智谱のCEO張鵬、無問芯穹の共同創業者兼CEO夏立雪、小米MiMo大規模言語モデルの責任者羅福莉、香港大学助理教授黄超が含まれた。

同じステージに立つ5人のゲストは、AI産業チェーンの大規模言語モデル層とインフラストラクチャ層に横たわっている。このうち、月之暗面と智谱はともに明確な清華大学のDNAを持っている。楊植麟は清華大学を学部卒業、張鵬は清華大学を学部から博士課程まで修了、夏立雪も清華大学電子工学部出身である。一方、羅福莉は北京大学卒業後、まずアリババのダモアカデミーに入り、その後DeepSeekに参加してディープラーニング研究員を務め、DeepSeek-V2などのモデル開発に参画した。

最近話題のAgentプロジェクトOpenClawについて、張鵬はそれを「足場」と表現し、モデルの基盤の上に堅牢で便利で柔軟なフレームワークを構築することで、普通の人でも一流モデルの能力を便利に使用できるようにした、特にプログラミングとインテリジェントエージェントの分野で。

羅福莉は、基盤大規模言語モデルの角度から、OpenClawは一方ではモデル能力の上限を引き上げ、国内の多くのモデルがほとんどのタスクで一流モデルのパフォーマンスに近づくことを可能にし、一方ではharness システムやスキル体系などのメカニズムを通じて、タスク完了度の下限と安定性を保証していると考えている。より広いマクロの観点から見ると、OpenClawは大規模言語モデルを超えたエージェント層で新しい想像空間を点灯させている。

このOpenClawの熱潮の中で、月之暗面や智谱などの大規模言語モデル企業はすべて恩恵を受ける者となった。OpenClawは自身のローカル展開の敷居が高く、実行時のトークンの急速な消費は高いコストをもたらすだろう。これにより、多くのユーザーの目は別の選択肢に向けられた。国内のクラウドプロバイダーやモデルプロバイダーが推し出した「ワンクリック展開」ソリューション。

2月18日、月之暗面はクラウドベースのOpenClaw製品Kimi Clawをリリースし、Kimi内で直接OpenClawを展開することをサポートしている。これはOpenClawのインテリジェントエージェント能力、クラウドインフラストラクチャ、即時スキル呼び出しをパッケージして統合し、Kimiの高度なネットワーク検索およびデータ抽出能力を活用し、K2.5 Thinkingモデルを自動的に設定した。

3月10日、智谱も「ワンクリック インストール可能なローカル版OpenClaw」AutoClaw(澳龍)をオンラインにした。今月中に、智谱はOpenClawロブスター場景深度最適化のための基盤モデルGLM-5-Turboも推出し、訓練段階からロブスター タスクのコア要件に対して専門的な最適化を実施し、ツール呼び出し、命令遵守、定時および継続的なタスク、長いチェーン実行などのコア能力を強化した。

Xiaomiなどのスマートフォンメーカーもすぐに追従している。3月6日、Xiaomi モバイル端末Agent「Xiaomi miclaw」が正式に限定的なクローズドベータテストを開始し、国内初の\u0026zwnj;モバイル端末類OpenClaw AI Agent アプリケーション\u0026zwnj;である。このAgentはXiaomi MiMo大規模言語モデルに基づいており、中核目標はスマートフォンシステム層に大規模言語モデルの実行能力を展開し、システムレベルの操作を自律的に実行することである。

論壇の終わりに、楊植麟は開放的な問題を提起した。1つの言葉で、今後12ヶ月の大規模言語モデル開発のトレンドとあなたの期待を説明してください。黄超は笑いながら、AI分野では12ヶ月が非常に遠く見えると述べた。楊植麟は、元々の問題設定は「5年」だったが、彼はより現実的な時間スケールに短縮したと答えた。

羅福莉は、今後1年のAGI過程で最も重要なことは自己進化だと述べた。彼女は、以前の対話パラダイムでは、事前訓練モデルの能力上限は十分に解放されておらず、エージェントフレームワークの発展に伴い、この上限は段階的に活性化されていると考えている。彼女の見方では、自己進化の意義は人間の生産性を置き換えることではなく、一流の科学者のように、この世界に存在しない新しいものを探索することにある。

張鵬は現実的な考慮に立ち戻り、計算能力は依然として直面する最大の問題であると率直に述べた。彼は、インテリジェントエージェントフレームワークが多くの人々に優れた創造性をもたらし、効率を10倍向上させているにもかかわらず、前提条件はそれを使う余裕があることだと指摘している。業界が推論段階への転換に伴い、需要は10倍、100倍の爆発を示しており、多くのニーズがまだ満たされていないため、一緒に解決策を考える必要があると述べた。

以下は円卓対話の速記録であり、内容は蓝鲸新聞により元の意図を保証するために調整されている。

楊植麟

現在最も流行しているOpenClawについて、皆さんが日常的にOpenClawまたは同様の製品を使用して、最も想像力があるまたは印象深いと思うことは何ですか?技術の観点から、今日のOpenClawと関連エージェントの進化についてどう思いますか?

張鵬

確かに、私は非常に早いうちからOpenClawを自分でいじり始めていました。当時はまだOpenClawという名前ではなく、最初はClawdbotと呼ばれ、これらのことをいじり始めました。結局のところ、私はプログラマー出身でもあるので、これらのものをいじるのは自分なりの体験を持っています。この事柄が皆さんにもたらす最大のブレークスルーポイント、または新鮮なポイントは、この事柄はもはやプログラマーまたはギークの特許ではなく、普通の人でも比較的便利に一流のモデルの能力、特にプログラミングとインテリジェントエージェント方面のこれらの能力を使用できるようになった。

ですから、今のところ、皆さんとのやり取りのプロセスで、私はOpenClawをより進んで「足場」と呼ぶことを望んでいます。それが提供するのは可能性であり、モデルの基盤の上に、非常に堅牢で、非常に便利だが、非常に柔軟な足場を構築しました。皆さんは自分の意志に従って、底層モデルが提供するたくさんの新奇なものを使用することができます。元々は、自分の考えのいくつかが、自分がコードを書けない、またはそのようなスキルを持っていないという制限を受けていました。今日、ついに非常に単純なやり取りを通じてそれを完成させることができます。ですから、この事は私にとって非常に大きな衝撃です、または私にこのような事に対して再認識させました。

夏立雪

実は、私が最初にOpenClawを使ったとき、それは非常に不適応でした。大規模言語モデルとチャットするこの通信方法に慣れていたからです。その後、OpenClawは反応が非常に遅いようだと気付きました。しかし、その後、私は1つの問題に気付きました。つまり、それは以前のこのチャットボットとは非常に異なります。実は、それは私が大規模なタスクを完成させるのを助けることができる「人」であるべきです。だから、実は、その後、私がより複雑なタスクを提出し始めたとき、実際のところ、彼は非常によくできることが分かりました。

この事が私にとって非常に大きな感触を持たらしたのは、モデルが最初のトークンでチャットするようになってから、現在はエージェントになり、ロブスターになることができ、あなたがタスクを完成させるのを助けることができるようになった。これは私たち全体のAIの想像力空間に既に非常に大きな向上をもたらしています。しかし、同時に、システム全体の能力に対する要件は非常に大きくなっています。これが私が最初にOpenClawを使용했을 때 少し引っかかるように感じた理由です。

ですから、私はこのような基礎インフラレイヤーのサプライヤーとして、私が見ているのは、Clawが全体のAIの背後にある大規模なシステムと生態系にもたらした、より多くの機会と課題です。現在、私たちが使用できるすべてのリソースは、この急速に成長する時代をサポートするには不十分です。たとえば、私たちの企業については、1月末から始めて、基本的に2週間ごとにトークン量が倍増します。現在は基本的に10倍になっています。最後にこのスピードを見たのはまだ当時3Gの時代、携帯電話トラフィックのその種の感覚です。

ですから、今、私は一種の感覚を持っています。つまり、現在のトークン使用量は、かつて私たちが毎月100メガバイトの携帯トラフィック容量を持っていたのと同じようです。この状況下で、実際のところ、私たちのすべてのリソースは、より良い最適化、より良い統合を必要とします。私たちの各個人、特にAI分野だけでなく、社会全体でも、それぞれ活発な人が、このOpenClawを、このようなAI能力を使用できるようにしましょう。ですから、インフラのプレイヤーとしての私は、これからの時代に非常に興奮し感触を持っています。そして、ここに多くの最適化空間があり、私たちが引き続き探索し、試すべき領域があると考えています。

羅福莉

私自身は、OpenClawをエージェントフレームワークの非常に革命的で画期的なイベントとして見ています。もちろん、身の回りで非常に深いコーディングを行っている人たちは、最初の選択肢はおそらくClaudeコードに依存することだと知っています。しかし、私はOpenClawを使った人だけが、このフレームワークに一意の感覚を持つと信じています。実際のところ、エージェントフレームワークでの設計は、Claude Codeより先を行っています。最近、Claude Codeには多くの最新の更新がありますが、実際のところ、すべてOpenClawに向かって近づいています。

私自身がOpenClawを使う場合、このフレームワークが私にもたらすのは、より多くは想像力のいつでもどこでも拡張です。Claude Codeは、おそらく最初は机の上でのみ想像力を拡張できますが、OpenClawではいつでもどこでも想像力を拡張できます。

その後、実は私はOpenClawがもたらす主な中核的価値が2つあることを発見しました。最初は、それはオープンソースです。オープンソースは実際のところ、社会全体がエージェントフレームワークの事柄に深く参加し、改善を重視し、投資を行うのに非常に有利な前提条件です。OpenClawやClaudeコードのようなエージェントフレームワークについて、私は、その非常に大きな価値は、国内の、おそらく非常に閉源モデルに近くはなかったが、水準はまだ次点の閉源モデルのトラックにあるモデルの上限を非常に高いところまで引き上げることにあると考えています。大部分のシナリオでは、実は私たちはタスク完了度がClaudeの最新モデルに非常に近いことを発見でき、同時に下限も非常に良く保証しています。なぜなら、harmoness システムまたはそのスキル体系など多くの設計に頼って、タスク完了度と精度を保証できるからです。

ですから、私は思います、OpenClawは、基盤大規模言語モデルの角度から見て、基礎大規模言語モデルの下限を保証し、その上限を引き上げています。

さらに、私自身が思うのは、OpenClawが社会全体にもたらす価値は、より多くは、大規模言語モデルの外層で、より重要なエージェント層に大きな想像力と空間があることを発見させたことです。これは、研究者以外で社会がAGI変革に参加しているより多くの人々を見ています。また、より強力なエージェントフレームワーク、ハーネスなどを活用して、ある程度、自分の仕事を置き換え、自分の時間を解放し、より想像力のある事柄を行う人も増えています。

楊植麟

最近は智谱も新しいGLM-5-Turboモデルをリリースしました。私が理解するところでは、エージェント能力に対してもかなりの強化があったのです。では、新しいモデルと他のモデルの違いについて、また、価格上昇戦略を観察し、それはどのような市場シグナルを反映しているのかについて、皆さんに紹介していただけますか?

張鵬

この2日間、確かに私たちも緊急にアップデートしました。もちろん、これは実際のところは私たち全体の開発ロードマップの中の1つの段階です。私たちはそれを早めに提供できます。この事の主な目的は、元々単純な対話から行動へシフトすることです。これも、先ほど皆さんが非常に同意していた点で、OpenClawは本当に大規模言語モデルが単純なチャットではなく、本当に私を手伝ってくれることができるだと感じさせました。

しかし、この行動の背後には、能力の需要が非常に高いという含意があります。長い期間にわたってタスク計画をし、絶え間なく再試行し、コンテキストを圧縮し、デバッグするなど、多くのことが必要です。また、マルチモーダル処理を含む可能性もあります。ですから、これはモデル自体の能力に対する要件に対して、実際のところ、従来の対話志向のロボットの汎用、一般用モデルとは異なります。ですから、GLM-5-Turboはこの方面でいくつかの特別な強化を行いました。たとえば、彼に行動させ、7時間24時間の長期にわたって、絶え間なく自分自身でこのループを行う方法を考えさせました。ここで、多くの作業が行われています。

さらに、皆さんも言及した、トークン消費量の問題についても。賢いモデルが複雑なタスクを行う場合、消費量は実際のところ非常に巨大かもしれません。一般の人は感じ取れないかもしれませんが、自分のアカウントの請求書でお金が絶え間なく落ちるのを見るだけです。ですから、この方面でも、複雑なタスクに直面しているとき、それはより高いトークン効率でこれらの事を完了できるようにいくつかの最適化を行いました。ですから、主にこれらのいくつかの方面で最適化を行いました。しかし、本質的には、モデルのアーキテクチャは依然として、マルチタスク協調の一般モデルアーキテクチャです。能力上、いくつかの偏向性の強化があるだけです。

価格上げについては、実際のところも皆さんに非常にスムーズに説明できます。現在、単純に質問を提出しているのではなく、その背後には思考のチェーンが非常に長いです。多くのタスク、コード記述の方法で、底層のインフラと交流し、デバッグしなければならず、常に自分の誤りを修正しなければなりません。実際のところ、消費量は非常に大きいです。1つのタスクを完了するのに必要なトークン量は、元々簡単な質問に答えるのはの10倍、さらには100倍かもしれません。ですから、この価格は、コスト上で確かにある程度の上昇が必要です。モデルはより大きくなり、推論コストも相応に上昇しました。ですから、私たちはそれを正常な商業価値に戻しました。

**低価格競争に依存して長期的に業界全体の発展を助けるわけではありません。**これは私たちの考慮です。また、私たちに商業化の道で良好な良好なサイクルを持ち、絶え間なくモデルの能力を最適化し、皆さんにより良いモデルとそれに対応するこれらのトークンサービスの継続的な提供を行うことを可能にします。

楊植麟

現在、オープンソースモデルと推論計算力があり、生態系を形成し始めていると感じます。様々なオープンソースモデルが、様々な推論計算力上で、ユーザーにより多くの価値を提供できます。トークン価格の報告に伴い、現在は可能性として訓練時代から推論時代へ段階的に移行しているかもしれません。ですから、infra層面から、推論時代が無問にとって何を意味するのかについてお聞きしたいのです。

夏立雪

AI時代に生まれた基礎インフラ企業だからです。私たちは現在、kimi、智谱、MiMoのために協力を行い、皆さんがこのようなトークン工場をより効率的に使用できるようにしています。ですから、私たちは実は絶えず考えを続けています。AGI時代に必要なインフラはどのような形式になるでしょう?私たちはこのプロセスでそれを段階的に達成し、推演できるようにどのようにしたらいいでしょうか?

私たちは現在、充分な準備もしており、短期、中期、長期の異なる段階で解決する必要がある問題を見ました。

脚下の1つの問題は、現在のトークン全体の急増です。システム効率に対して、より大きな最適化の必要性をもたらしました。価格の上昇なども、この需要の一種の解決方法です。私たちは常にソフトウェアとハードウェアの統合された方法でレイアウトと解決を行ってきました。見ることができるほぼすべての種類の計算チップの接続も含まれています。私たちは国内の十数種類のチップと数十の異なるコンピューティングクラスタを統一的に繋ぎました。このようにして、AIのようなシステムの計算力リソースの不足の問題を解決できます。リソースが不足している場合、最も良い方法は第一に、使用できるリソースをすべて使用することです。第二に、各計算力を最適な場所に使用し、各リソースが最大の変換効率値を発揮できます。

ですから、この時代に、私たちが脚下で解決する必要があるのは、より効率的なトークン工場をさらに構築できるかということです。ここで、多くの最適化をしました。モデルとハードウェア上の様々なビデオメモリや様々な技術を最適に適合させることも含まれています。また、最新のモデル構造とモデルのハードウェア構造の下で、より深い化学反応ができるかどうかについても見ています。この脚下の効率問題を解決して、実際のところ、私たちはまだ標準化されたトークン工場を構築しているだけです。

しかし、エージェント時代に向けて、私たちが考えるに、これはまだ不十分です。先ほど述べたように、エージェントはより人のようだからです。私たちが彼にタスクを渡すことができます。実は、私は非常に確信しています。現在のようなクラウドコンピューティング時代の多くのインフラは、実は1つのプログラムにサービスを提供し、1人の人間エンジニアにサービスを提供するために設計されたのであって、AIのために設計されたのではありません。少し何のようなことかあれば?私たちは基礎インフラを作り、その上にインターフェースがあり、このインターフェースは人間エンジニアのためのものであり、その上に1層をさらに包装してからエージェントにアクセスする必要があります。その場合、このような方法は実際のところは人間の操作の能力によってエージェント発揮空間を限定しました。

私たちはそれをagentic infraと呼んでいます。つまり、より知的なトークン工場を構築する必要があります。これが無問芯穹が現在するしている事です。より未来志向の観点から、本当のAGI時代が到来した場合、私たちが考えるに、インフラさらには知的体であるべき。私たち自身が構築したこのような工場自体も、自己進化し、自己反復でき、自主的な組織を形成できるはずです。ある意味、それにはCEOがあり、このCEOはエージェント、おそらくは龍虾全体のインフラを管理しており、AI顧客の需要に応じて、自分で需要を可視化し、自分のインフラを反復させます。このように、AI間でより良い結合を形成できます。ですから、私たちも、エージェント間のより良い通信の方法、claw to clawのような複製能力を行うことなど、いくつかの作業をしています。

ですから、実は、基礎インフラとAIの発展は隔離されている状態であるべきではなく、私が1つのニーズを受け取ってから、それを実行するべきではないと考えています。むしろ、非常に豊かな化学反応を発生すべきです。これが本当に所謂ソフトウェアとハードウェアの協同を実現し、アルゴリズムとインフラの協同を実現するものだと考えています。

楊植麟

Xiaoomiはまた最近、新しいモデルのリリースと背後の技術のいくつかのオープンソース化を通じて、彼らはこのコミュニティに大きな貢献をしたと感じています。では、小米が大規模言語モデルをしている中で、独特のアドバンテージがあると思いますか?

羅福莉

小米が大規模言語モデルをしている独特のアドバンテージが何であるかについてはひとまず置いておき、実際のところ、私はより中国が大規模言語モデルをしているチームが大規模言語モデルをしている際の1つのアドバンテージについてより話したいです。この話題はより広いスコープの価値を持つと感じています。

実際のところ、約2年前から、私は中国の基盤の大規模言語モデルチームが既に非常に良い突破を開始するのを見ています。この突破は、限られたコンピューティング力の下で、特に利用可能なnvlink、相互接続帯域幅を制限するコンピューティング力の状況で、これらの低端コンピューティング力の制限をどのように突破するか、そしてどのようにして、効率的な妥協のように見えるこれらのモデル構造イノベーションをしているかについてです。DeepSeek V2、V3シリーズのMoEなど。しかし、実際のところは、このようなイノベーション後に、私たちは1つの変革を見ることができます。この変革は、コンピューティング力が一定の場合、定一コンピューティング力の最高知能水準をどのように発揮するかについてです。

なぜ私が構造イノベーションがこのように重要だと感じているかあれば、それは、私たちが実際のところOpenClawについて議論した主題のためです。OpenClawは、実際のところ、本当に使うなら、使用すればするほど良いようになり、使用すればするほど実ります。ある前提は、推論コンテキストです。

実際のところ、コンテキストは私たちが長く議論してきた話題です。しかし、今本当に見つかるのは、1つのモデルがあり、長いコンテキストの状況下で非常に優れたパフォーマンスを発揮し、パフォーマンスは非常に堅牢であり、推論コストは非常に低いです。実際のところ、多くのモデルはそれをできないのではなく、コストが高すぎて、速度が遅すぎます。1兆または10兆のコンテキストの状況下で、推論コストが十分に低く、速度が十分に速い方法。このような状況下で初めて、本当に高い生産性の価値があるタスクをこのモデルに与え、より高い複雑度のタスクを完成させでき、おそらくこのような場合初めて、モデルの自己反復を実現できます。

**所

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン