Microsoftは、ランタイムセキュリティに焦点を当てた新しいオープンソースのツールキットを導入し、企業のAIエージェントに対するより厳格なガバナンスを強制することを目指しています。概要* Microsoftは、企業のAIエージェントを統治するために、ランタイムセキュリティに焦点を当てたオープンソースのツールキットを立ち上げました。* このシステムはエージェントのアクションをリアルタイムで監視しブロックし、自律モデルがコードを実行することによるリスクに対処します。AIモデルと企業のシステムの間にポリシーレイヤーを挿入し、監査可能な意思決定の履歴を作成します。* このツールキットは、API利用とトークン消費の制御にも役立ち、運用およびコストのリスクを低減します。このツールキットはランタイムセキュリティを基盤に構築されており、現代の言語モデルが助言役に限定されなくなり、実際にコードを実行し内部システムとやり取りしているという懸念に対応しています。静的なコードチェックや事前デプロイ時のスキャンといった従来のセーフガードでは、こうした動的な振る舞いに追いつくのが難しいのが現状です。AIの初期の導入は、主に、権限を制限した読み取り専用アクセスのコパイロットに焦点が当てられており、人間が実行を主導していました。そのモデルは変わりつつあります。企業は現在、API、クラウド環境、開発パイプライン全体で独立した行動を取れるエージェント型システムを統合しています。このような運用では、AIエージェントがメールを解析し、スクリプトを生成し、人間の介入なしにサーバーへデプロイすることもあり得ます。誤った指示やプロンプトインジェクションが1つでもあると、意図しないデータベースの変更や機密情報の露出につながりかねません。新しいツールキットは、事前に用意された制御に頼るのではなく、実際に起きるアクションを監視し、リアルタイムで介入することで、そのリスクに対処します。# エージェント主導のアクションに対するリアルタイムの監督このシステムは、AIエージェントが外部ツールとどのように相互作用するかに焦点を当てています。モデルが、企業システムへの問い合わせのように、内部処理を超える行動を行う必要がある場合、そのツールに向けたコマンドを生成します。Microsoftは、モデルと企業のネットワークの間にポリシー強制レイヤーを挿入します。送信される各リクエストはインターセプトされ、実行前に事前に定義されたガバナンスルールに照らして評価されます。たとえば、エージェントが読み取り専用アクセスに制限されているにもかかわらず取引の開始を試みるといった場合、リクエストはブロックされ、レビューのために記録されます。このアプローチにより、開発者がすべてのプロンプトやワークフローにセキュリティ制約を埋め込む必要をなくしつつ、意思決定の監査可能な履歴を作成できます。ガバナンスはアプリケーションのロジックから離れ、インフラストラクチャのレベルの制御へと移ります。このフレームワークは、レガシーシステムのためのバッファとしても機能します。その多くは、予測できない機械生成の入力を扱うように設計されていません。中核システムに到達する前にリクエストをフィルタリングし検証することで、侵害された、または誤って誘導されたAIの振る舞いがもたらすリスクを抑えます。Microsoftがこのツールキットをオープンソースとしてリリースする決定を下したのは、現在の開発実践と連動しているためです。AIワークフローを構築するチームは、しばしばサードパーティのツールやモデルの組み合わせに依存します。専有ソリューションは、より速い代替手段のために回避される可能性があります。オープンにすることで、Anthropicのような競合他社のモデルを使用しているシステムを含む、多様な環境にわたって制御を統合できます。また、サイバーセキュリティ企業が、このフレームワークの上に追加の監視および対応レイヤーを構築できる道も開き、AI主導の運用を守るための共通のベースラインを確立することに役立ちます。## AIワークフローに財務規律を持ち込む課題はセキュリティだけではありません。自律エージェントは、特にチェックされないAPI利用を通じて、財務面および運用面のリスクも引き起こします。これらのシステムは継続的なループで動作し、外部サービスへの呼び出しを繰り返します。制限がなければ、単純なタスクでも有料のデータベースやAPIに対する何千もの問い合わせを引き起こし、コストが急速に膨らむ可能性があります。極端なケースでは、設定ミスのあるエージェントが再帰的なサイクルに入り、短時間で大量の計算資源を消費してしまうこともあります。このツールキットにより、組織はトークン使用量やリクエスト頻度に関する厳格な境界を定義できます。一定期間内にエージェントがどれだけ行動できるかを制御することで、企業は支出をより適切に管理し、暴走プロセスを防ぐことができます。ランタイムの監督は、測定可能な制御と明確な監査ログを提供することで、コンプライアンス要件にも対応します。責任の所在は、モデル提供者から、意思決定を現実の環境で実行するシステムへと移りつつあります。こうしたガバナンスの枠組みを展開するには、エンジニアリング、法務、セキュリティの各チーム間の連携が必要になります。AIシステムがより自律的な役割を担うほど、それらの振る舞いを管理するインフラは、安全なデプロイにおいて中核になっていきます。## Microsoft、日本でのAIインフラ投資を拡大今回のリリースは、AIインフラへの継続的な投資に並行して行われます。Microsoftは最近、今後4年間で日本に100億ドルを投資する計画を明らかにしており、データセンターと支援システムに重点を置いています。この発表は、東京で行われたMicrosoftのブラッド・スミス大統領と、日本の高市早苗首相との会談を受けてのものです。スミス氏は、この投資を「日本におけるクラウドおよびAIサービス需要の高まりへの対応」と説明しました。同社は、SoftBank GroupおよびSakura Internetと協力して国内インフラを拡大しています。最新のコミットメントは、国内のAI能力とサイバーセキュリティのレジリエンスを強化することを目的に2024年に発表された29億ドルの計画に基づくものです。
Microsoftは、自律型AIエージェントの管理を強化するために、オープンソースのランタイムツールキットを展開します
Microsoftは、ランタイムセキュリティに焦点を当てた新しいオープンソースのツールキットを導入し、企業のAIエージェントに対するより厳格なガバナンスを強制することを目指しています。
概要
このツールキットはランタイムセキュリティを基盤に構築されており、現代の言語モデルが助言役に限定されなくなり、実際にコードを実行し内部システムとやり取りしているという懸念に対応しています。静的なコードチェックや事前デプロイ時のスキャンといった従来のセーフガードでは、こうした動的な振る舞いに追いつくのが難しいのが現状です。
AIの初期の導入は、主に、権限を制限した読み取り専用アクセスのコパイロットに焦点が当てられており、人間が実行を主導していました。そのモデルは変わりつつあります。企業は現在、API、クラウド環境、開発パイプライン全体で独立した行動を取れるエージェント型システムを統合しています。
このような運用では、AIエージェントがメールを解析し、スクリプトを生成し、人間の介入なしにサーバーへデプロイすることもあり得ます。誤った指示やプロンプトインジェクションが1つでもあると、意図しないデータベースの変更や機密情報の露出につながりかねません。新しいツールキットは、事前に用意された制御に頼るのではなく、実際に起きるアクションを監視し、リアルタイムで介入することで、そのリスクに対処します。
エージェント主導のアクションに対するリアルタイムの監督
このシステムは、AIエージェントが外部ツールとどのように相互作用するかに焦点を当てています。モデルが、企業システムへの問い合わせのように、内部処理を超える行動を行う必要がある場合、そのツールに向けたコマンドを生成します。
Microsoftは、モデルと企業のネットワークの間にポリシー強制レイヤーを挿入します。送信される各リクエストはインターセプトされ、実行前に事前に定義されたガバナンスルールに照らして評価されます。たとえば、エージェントが読み取り専用アクセスに制限されているにもかかわらず取引の開始を試みるといった場合、リクエストはブロックされ、レビューのために記録されます。
このアプローチにより、開発者がすべてのプロンプトやワークフローにセキュリティ制約を埋め込む必要をなくしつつ、意思決定の監査可能な履歴を作成できます。ガバナンスはアプリケーションのロジックから離れ、インフラストラクチャのレベルの制御へと移ります。
このフレームワークは、レガシーシステムのためのバッファとしても機能します。その多くは、予測できない機械生成の入力を扱うように設計されていません。中核システムに到達する前にリクエストをフィルタリングし検証することで、侵害された、または誤って誘導されたAIの振る舞いがもたらすリスクを抑えます。
Microsoftがこのツールキットをオープンソースとしてリリースする決定を下したのは、現在の開発実践と連動しているためです。AIワークフローを構築するチームは、しばしばサードパーティのツールやモデルの組み合わせに依存します。専有ソリューションは、より速い代替手段のために回避される可能性があります。オープンにすることで、Anthropicのような競合他社のモデルを使用しているシステムを含む、多様な環境にわたって制御を統合できます。
また、サイバーセキュリティ企業が、このフレームワークの上に追加の監視および対応レイヤーを構築できる道も開き、AI主導の運用を守るための共通のベースラインを確立することに役立ちます。
AIワークフローに財務規律を持ち込む
課題はセキュリティだけではありません。自律エージェントは、特にチェックされないAPI利用を通じて、財務面および運用面のリスクも引き起こします。
これらのシステムは継続的なループで動作し、外部サービスへの呼び出しを繰り返します。制限がなければ、単純なタスクでも有料のデータベースやAPIに対する何千もの問い合わせを引き起こし、コストが急速に膨らむ可能性があります。極端なケースでは、設定ミスのあるエージェントが再帰的なサイクルに入り、短時間で大量の計算資源を消費してしまうこともあります。
このツールキットにより、組織はトークン使用量やリクエスト頻度に関する厳格な境界を定義できます。一定期間内にエージェントがどれだけ行動できるかを制御することで、企業は支出をより適切に管理し、暴走プロセスを防ぐことができます。
ランタイムの監督は、測定可能な制御と明確な監査ログを提供することで、コンプライアンス要件にも対応します。責任の所在は、モデル提供者から、意思決定を現実の環境で実行するシステムへと移りつつあります。
こうしたガバナンスの枠組みを展開するには、エンジニアリング、法務、セキュリティの各チーム間の連携が必要になります。AIシステムがより自律的な役割を担うほど、それらの振る舞いを管理するインフラは、安全なデプロイにおいて中核になっていきます。
Microsoft、日本でのAIインフラ投資を拡大
今回のリリースは、AIインフラへの継続的な投資に並行して行われます。Microsoftは最近、今後4年間で日本に100億ドルを投資する計画を明らかにしており、データセンターと支援システムに重点を置いています。
この発表は、東京で行われたMicrosoftのブラッド・スミス大統領と、日本の高市早苗首相との会談を受けてのものです。スミス氏は、この投資を「日本におけるクラウドおよびAIサービス需要の高まりへの対応」と説明しました。
同社は、SoftBank GroupおよびSakura Internetと協力して国内インフラを拡大しています。最新のコミットメントは、国内のAI能力とサイバーセキュリティのレジリエンスを強化することを目的に2024年に発表された29億ドルの計画に基づくものです。