モニタリングを打破することによると、オープンソースのAIエージェントプラットフォームOpenClawはバージョン2026.4.22をリリースしました。最も重要な変更点は、CodexハーネスとPiのライフサイクルの整合性です。以前は、プラグインはPiハーネスとCodexハーネスの二つの経路で一貫性のない動作をし、同じプラグインが異なるハーネス下でフック呼び出しを逃すことがありました。このバージョンでは、before_prompt_build、before_compaction / after_compaction、after_tool_call、before_message_write、llm_input / llm_output / agent_endなどの重要なフックを完了し、プラグイン開発者が両方の経路に個別に適応させる必要を排除しました。同期化に伴い、Codex側にプラグイン拡張インターフェースも導入され、非同期のtool_resultミドルウェアをサポートしています。これは、OpenAIのCodexチームによるCodexハーネス認証における静かなフォールバック問題の最近の修正に続くもので、OpenClawのCodex統合における体系的な修復の一環です。もう一つのアーキテクチャの追加は、TUIローカル埋め込みモードです。これにより、ユーザーはゲートウェイを起動せずに端末上でエージェントの会話を直接実行でき、プラグイン承認メカニズムも維持されます。推論モデルのデフォルトの思考レベルは、以前のオフ/低静音状態から中程度に引き上げられ、手動で推論レベルを設定していないユーザーは、アップグレード後に推論モデルがデフォルトで思考過程を出力し始めることに気付くでしょう。パフォーマンス面では、プラグインの読み込みにネイティブのJitiを使用し、起動時間を82%から90%削減しました。doctor --non-interactiveの実行時間も約74%短縮されました。Kimi K2.6の多ラウンドエージェント呼び出しは、tool_call IDの誤ったクリーニングによる中断がなくなります。Linuxでは、サブプロセスが自動的にoom_score_adjを増加させ、メモリ圧力下でカーネルが一時的なワーカーを優先的に終了させることが可能です。設定システムには、最後に正常だった設定を復元する機能が追加され、誤って設定が上書きされてゲートウェイのクラッシュループを防ぎます。新しいプロバイダー統合には、画像生成用のxAI@grok-imagine-image / grok-imagine-image-pro(、TTS、STTが含まれます。Tencent Cloudは公式プロバイダープラグインとして組み込まれ、Hy3プレビューモデルと価格も含まれています。OpenAIモデルでウェブ検索を有効にすると、従来のOpenClaw管理の検索チャネルを経由せず、直接ネイティブのOpenAI web_searchツールを使用するようになりました。
OpenClaw修正プラグインエコシステムの分裂:CodexとPi Hooksが統合され、読み込み時間が90%短縮
モニタリングを打破することによると、オープンソースのAIエージェントプラットフォームOpenClawはバージョン2026.4.22をリリースしました。最も重要な変更点は、CodexハーネスとPiのライフサイクルの整合性です。以前は、プラグインはPiハーネスとCodexハーネスの二つの経路で一貫性のない動作をし、同じプラグインが異なるハーネス下でフック呼び出しを逃すことがありました。このバージョンでは、before_prompt_build、before_compaction / after_compaction、after_tool_call、before_message_write、llm_input / llm_output / agent_endなどの重要なフックを完了し、プラグイン開発者が両方の経路に個別に適応させる必要を排除しました。同期化に伴い、Codex側にプラグイン拡張インターフェースも導入され、非同期のtool_resultミドルウェアをサポートしています。これは、OpenAIのCodexチームによるCodexハーネス認証における静かなフォールバック問題の最近の修正に続くもので、OpenClawのCodex統合における体系的な修復の一環です。もう一つのアーキテクチャの追加は、TUIローカル埋め込みモードです。これにより、ユーザーはゲートウェイを起動せずに端末上でエージェントの会話を直接実行でき、プラグイン承認メカニズムも維持されます。推論モデルのデフォルトの思考レベルは、以前のオフ/低静音状態から中程度に引き上げられ、手動で推論レベルを設定していないユーザーは、アップグレード後に推論モデルがデフォルトで思考過程を出力し始めることに気付くでしょう。パフォーマンス面では、プラグインの読み込みにネイティブのJitiを使用し、起動時間を82%から90%削減しました。doctor --non-interactiveの実行時間も約74%短縮されました。Kimi K2.6の多ラウンドエージェント呼び出しは、tool_call IDの誤ったクリーニングによる中断がなくなります。Linuxでは、サブプロセスが自動的にoom_score_adjを増加させ、メモリ圧力下でカーネルが一時的なワーカーを優先的に終了させることが可能です。設定システムには、最後に正常だった設定を復元する機能が追加され、誤って設定が上書きされてゲートウェイのクラッシュループを防ぎます。新しいプロバイダー統合には、画像生成用のxAI@grok-imagine-image / grok-imagine-image-pro(、TTS、STTが含まれます。Tencent Cloudは公式プロバイダープラグインとして組み込まれ、Hy3プレビューモデルと価格も含まれています。OpenAIモデルでウェブ検索を有効にすると、従来のOpenClaw管理の検索チャネルを経由せず、直接ネイティブのOpenAI web_searchツールを使用するようになりました。