記者はKimi Clawプラットフォームでの指示も「至る所で壁にぶつかりました」——指示が少しでも複雑になると、回答を停止します。初めてKimi Clawに指示を出してA株の市場データを分析するためのスキルを検索してインストールするように要求したところ、システムは「IM runtime dispatch timed out after 300000ms」と表示し、計算リソースのスケジューリングがタイムアウトしたため、タスクが失敗しました。
さらに、「ロブスター」の使用リスクも多くの業界関係者が注目している話題です。宋巍巍は、自然言語の提示語に単純に依存することは非常に脆弱な安全壁であると述べました。AIが完全ディスクアクセス(Full Disk Access)を取得すると、どんなセキュリティの脆弱性もデータのシステム的な漏洩を引き起こす可能性があります。OpenClawのサードパーティプラグインエコシステム(ClawHub)もセキュリティのリスクを含む可能性があります。また、AIがツールから自律的な実行者に変わると、従来の責任の所在の論理が完全に無効になります。
親自検証「ロブスター」選股:楽に「勝ち逃げ」できると思ったが、現実はそう甘くない
AIに聞く · 「ロブスター」株選びが実測で頻繁にデータエラーに遭遇する理由は?
「『ロブスター』に株を任せられますか?」という疑問を抱え、中国証券報の記者は「ロブスター」ソフトウェアを開きました。すると、記者は気づきました:理想は美しいが、現実は容易ではありません。
モジュラー専門ツールキット(Skills、LLMに指示とツール定義を提供するSKILL.mdファイルを含むディレクトリ)を加えずに行った質問には単なるデータの積み重ねしか得られず、Skillsガイドを隅々まで読み、さまざまな専門的な戦略構築の要求を提起した後には「実行タイムアウト」の「気まずさ」が待っていました。おそらく一般の個人投資家にとって、「ロブスター」を使用して株式投資にかかる人力、物力、財力は、得られる結果の正確性と実用性と対等ではありません。
あるファンドマネージャーは記者に対し、チームは今まで「ロブスター」類のアプリケーションを接続していないと述べました。一つはコンプライアンスの観点から、この種のソフトウェアには大きなリスクがあること、もう一つは既存の量的モデルが実際には株式プールの選別や戦略のバックテストなどの投資ニーズを迅速に解決できるからです。
「ロブスター」を開いてからコンピュータを閉じるまで
ローカルデプロイは「ロブスター」をインストールする重要な方法ですが、記者の実測では、この操作方法の権限が過剰であることがわかりました——これはコンピュータの最高管理者権限を取得する必要があり、個人アカウントのパスワードなどの情報を「全て明かす」ことになります。一旦ハッカーに攻撃されたり、指示に「偏らせ」られたりすると、自分の資金が高いリスクにさらされる可能性があります。
次に、記者はクラウド上でさまざまな「ロブスター」アプリケーションを試し、Kimi Claw、Art Claw、JVS Clawなどの複数のインターネット大手企業やAI大モデル会社の「ロブスター」製品にログインし、初級版の会員を購入してさらなる試行を行いました。
記者は、よりリアルで信頼できるデータを得るにはモジュラー専門ツールキット(Skills)をインストールする必要があることを知りました。Art Clawを例に挙げると、記者はArt Clawに「stock-market-pro」をインストールする指示を出しましたが、常にインストールできませんでした。
図はArt Clawプラットフォームのスクリーンショットです
その後、記者は「PB-ROE」の戦略構築の考え方を使ってArt Clawに株を推薦させることを試みることしかできませんでした。
図はArt Clawプラットフォームのスクリーンショットです
Art Clawは戦略構築の考え方を整理し、関連する株の推薦を行いましたが(下の図参照)、記者は推演過程で多くのデータエラーが発生していることに気づきました。たとえば、貴州茅台の株価と親会社の純利益の数値は実際と一致しませんでした。
図はArt Clawプラットフォームのスクリーンショットです
数時間後、記者がいくつかのskillのインストールを試みた後、「ロブスター」はついにそのskillをインストールし、株式投資ソフトウェアAPIから最新の実際の株価を取得できると宣言しました。しかし、記者は多くのデータが依然として実際のデータと大きな違いがあることに気づきました。
記者はKimi Clawプラットフォームでの指示も「至る所で壁にぶつかりました」——指示が少しでも複雑になると、回答を停止します。初めてKimi Clawに指示を出してA株の市場データを分析するためのスキルを検索してインストールするように要求したところ、システムは「IM runtime dispatch timed out after 300000ms」と表示し、計算リソースのスケジューリングがタイムアウトしたため、タスクが失敗しました。
図はKimi Clawプラットフォームのスクリーンショットです
その後、記者は《Kimi Clawユーザー使用説明書》に記載された例文を参考にして再度試みたところ、Kimi ClawはA株専門スキルを4つ作成したと表示し、それに基づいて3つの株の2025年第3四半期の財務報告書を分析しました。その結果、提供された財務データは会社の年次報告書と一致し、キャッシュフローリスクについての警告と説明があり、包括的な評価と投資提案が添付されていました。
図はKimi Clawプラットフォームのスクリーンショットです
記者はさらにリアルタイムのインターネットニュース検索スキルのインストールを試み、操作が成功し、上場企業に関連する世論情報を得ました。しかし、記者がKimi Clawにモニタリング機能を接続し、その提案に従って操作しようとしたところ、システムは再び同じタイムアウトの提示が表示されました。記者はその後、199元を支払って開通したK2.5 Agentクラスタモデルに助けを求めましたが、結果はあまり満足できるものではありませんでした。
図はKimi Clawプラットフォームのスクリーンショットです
多くの一般の投資家にとって、賢くて働き者で反応の早い「ロブスター」を育てるには、使用者の継続的な努力が必要であり、使用者には比較的豊富な専門スキルも求められます。また、ある投資家は、株式の複雑な選別作業にはかなりの量のTokenが必要であり、コストが高いと述べています。
「今は『ロブスター』に毎日株式市場レポートを送らせることができますが、Skillsを常に更新された状態に保つ必要があり、最新の一巡の変化を常にキャッチさせる必要があります。その中で、効率を向上させるためにいくつかのインテリジェントプログラミングソフトウェアを使用するのが最善です。」と「ロブスター」を使って投資をしている投資家は記者に述べました。「育成プロセスは多くの『苦難』を経ており、今後もし何らかの戦略因子を追加したい場合は、さらに調整が必要かもしれません。」
インテリジェントな投資の道は険しい
あるファンドマネージャーは記者に対し、現在のチームでは「ロブスター」類のアプリケーションを導入していないと明かしました。これは主に二つの観点から考慮されています:まず、コンプライアンスの観点から、この種のソフトウェアには高いリスクがあること;次に、チームの現行の量的モデルが株式プールの選別や戦略のバックテストなどの投資ニーズを比較的効率的に満たすことができるからです。
「自分のコンピュータで『ロブスター』を試してみると、確かにいくつかのプログラミングコードを処理するのに役立ちますが、全体的な体験を通じて、作業効率があまり向上しなかったと感じました。」とある量的ファンドマネージャーは記者に述べました。「現在、チームは『ロブスター』を導入する計画はありません。」
「ロブスター」の導入について、中欧ファンドのファンドマネージャー宋巍巍は、統一メモリ(Unified Memory)のハードウェアがより良いOpenClawの導入ハードウェアであると述べました。OpenClawとして「プライベートAI脳」の3つの核心要求は:大きなメモリ、高効率の計算、常駐運用です。従来のPCでは、CPUがメモリを使用し、GPUがビデオメモリを使用し、両者は独立しています。データの搬送には両者間のコピーが必要であり、効率が低く、リソースが浪費されます。
宋巍巍は、統一メモリアーキテクチャ、つまりCPU、GPU、NPU(ニューラルネットワークエンジン)が共有する物理メモリプールを持つことで、同じデータにシームレスにアクセスでき、往復のコピーが不要になると述べました。大規模な言語モデルを実行する際の最大のボトルネックはビデオメモリです。モデルパラメータは実行するために全てビデオメモリにロードする必要があります。PC上で700億のパラメータを持つ大モデルを実行するには、32GB以上のビデオメモリを持つ最高級のグラフィックカードが必要であり、これには通常数万元のコストと巨大な電力消費が伴います。
さらに、「ロブスター」の使用リスクも多くの業界関係者が注目している話題です。宋巍巍は、自然言語の提示語に単純に依存することは非常に脆弱な安全壁であると述べました。AIが完全ディスクアクセス(Full Disk Access)を取得すると、どんなセキュリティの脆弱性もデータのシステム的な漏洩を引き起こす可能性があります。OpenClawのサードパーティプラグインエコシステム(ClawHub)もセキュリティのリスクを含む可能性があります。また、AIがツールから自律的な実行者に変わると、従来の責任の所在の論理が完全に無効になります。
もしOpenClawが指示を実行する際に、意図せず商業機密を漏洩したり、誹謗中傷的なメールを送信したり、さらにはサイバー攻撃に関与した場合、責任は誰が負うべきでしょうか?指示を出したユーザー、コードを記述した開発者、基盤モデルを提供したベンダー、または「自律的な意思決定」能力を持つAI自身でしょうか?現在、世界中でほぼ法的な真空状態にあります。
(出典:中国証券報)