動態監測 Beating 監測により、オープンソースの AI エージェントプラットフォーム OpenClaw は 2026.4.22 バージョンをリリースしました。最大の変更点は、Codex harness と Pi のライフサイクルを同期させたことです。以前はプラグインが Pi harness と Codex harness の両方のパスで動作が一致せず、同じプラグインが異なる harness でフック呼び出しを欠くことがありました。このバージョンでは、before_prompt_build、before_compaction / after_compaction、after_tool_call、before_message_write、llm_input / llm_output / agent_end などの重要なフックを一気に補完し、プラグイン開発者は二つのパスに対して個別に適応させる必要がなくなりました。同期には、Codex 端のプラグイン拡張インターフェースも新たに追加され、非同期の tool_result ミドルウェアをサポートしています。これは、今週 OpenAI の Codex チームが Codex harness の認証静的リカバリー問題を修正した後の、OpenClaw における Codex 統合のもう一つの体系的な修正です。もう一つのアーキテクチャレベルの新機能は、TUI のローカル埋め込みモードです。ユーザーは Gateway を起動せずに、直接端末上でエージェントの対話を行うことができ、プラグインの承認メカニズムも維持されます。推論モデルのデフォルトの thinking level は、以前の off/low から静かに medium に引き上げられました。推論レベルを手動で設定していないユーザーは、アップグレード後に推論モデルがデフォルトで思考過程を出力し始めることに気付くでしょう。性能面では、プラグインのロードに native の Jiti を採用し、起動時間は82%短縮の90%に低減。doctor --non-interactive の実行時間も約74%短縮されました。Kimi K2.6 の多回エージェント呼び出しは、tool_call ID の誤ったクリーニングによる中断がなくなりました。Linux 上では、子プロセスの oom_score_adj が自動的に向上し、メモリ圧力下ではカーネルが一時的なワーカーを優先的に終了し、Gateway のメインプロセスを保護します。設定システムには last-known-good の復元機能も追加され、設定の誤った上書きによる Gateway のクラッシュループを防止します。新たに追加された provider では、xAI が画像生成(grok-imagine-image / grok-imagine-image-pro)、TTS、STT に対応。Tencent Cloud は公式の provider プラグインとして内蔵され、Hy3 プレビューのモデルと価格も収録済みです。OpenAI のモデルで web search を有効にすると、従来の OpenClaw 管理の検索チャネルを経由せず、直接 OpenAI のネイティブ web_search ツールを使用するようになりました。
OpenClaw修复插件エコシステムの分裂:CodexとPiフックの統一、読み込み時間が九割減少
動態監測 Beating 監測により、オープンソースの AI エージェントプラットフォーム OpenClaw は 2026.4.22 バージョンをリリースしました。最大の変更点は、Codex harness と Pi のライフサイクルを同期させたことです。以前はプラグインが Pi harness と Codex harness の両方のパスで動作が一致せず、同じプラグインが異なる harness でフック呼び出しを欠くことがありました。このバージョンでは、before_prompt_build、before_compaction / after_compaction、after_tool_call、before_message_write、llm_input / llm_output / agent_end などの重要なフックを一気に補完し、プラグイン開発者は二つのパスに対して個別に適応させる必要がなくなりました。同期には、Codex 端のプラグイン拡張インターフェースも新たに追加され、非同期の tool_result ミドルウェアをサポートしています。これは、今週 OpenAI の Codex チームが Codex harness の認証静的リカバリー問題を修正した後の、OpenClaw における Codex 統合のもう一つの体系的な修正です。
もう一つのアーキテクチャレベルの新機能は、TUI のローカル埋め込みモードです。ユーザーは Gateway を起動せずに、直接端末上でエージェントの対話を行うことができ、プラグインの承認メカニズムも維持されます。
推論モデルのデフォルトの thinking level は、以前の off/low から静かに medium に引き上げられました。推論レベルを手動で設定していないユーザーは、アップグレード後に推論モデルがデフォルトで思考過程を出力し始めることに気付くでしょう。
性能面では、プラグインのロードに native の Jiti を採用し、起動時間は82%短縮の90%に低減。doctor --non-interactive の実行時間も約74%短縮されました。Kimi K2.6 の多回エージェント呼び出しは、tool_call ID の誤ったクリーニングによる中断がなくなりました。Linux 上では、子プロセスの oom_score_adj が自動的に向上し、メモリ圧力下ではカーネルが一時的なワーカーを優先的に終了し、Gateway のメインプロセスを保護します。設定システムには last-known-good の復元機能も追加され、設定の誤った上書きによる Gateway のクラッシュループを防止します。
新たに追加された provider では、xAI が画像生成(grok-imagine-image / grok-imagine-image-pro)、TTS、STT に対応。Tencent Cloud は公式の provider プラグインとして内蔵され、Hy3 プレビューのモデルと価格も収録済みです。OpenAI のモデルで web search を有効にすると、従来の OpenClaw 管理の検索チャネルを経由せず、直接 OpenAI のネイティブ web_search ツールを使用するようになりました。