ME News ニュース、4月18日(UTC+8)、NVIDIAは最近、開発者が安全で長期にわたり完全にローカルな自主AIアシスタントを構築する方法を指導する技術チュートリアルを公開しました。このチュートリアルは、NVIDIAのオープンソースリファレンススタックNemoClawに基づいており、このスタックはOpenShellセキュアランタイムとOpenClawセルフホストゲートウェイを統合し、サードパーティのクラウド上にAIエージェントを展開する際のデータプライバシーとコントロールリスクを解決することを目的としています。 チュートリアルは、NVIDIA DGX Spark(GB10)システム上での展開手順を詳細に示しており、環境設定、ローカルサービスモデル、スタックのインストール、Telegramへの接続を含みます。展開には、特定のハードウェア(DGX SparkでUbuntu 24.04 LTSを実行)、ソフトウェア(Docker 28.x+、Ollama)、およびTelegramボットトークンの作成などの前提条件を満たす必要があります。操作にかかる時間は約20〜30分で、最初のモデルダウンロード(約87 GB)に15〜30分かかると見積もられています。主要なコンポーネントには、NemoClaw、OpenShell、OpenClaw、Nemotron 3 Super 120B LLM、NIMまたはOllama推論展開が含まれます。 さらに、記事は、OpenShellは強力な隔離機能を提供しますが、高度なプロンプト注入に対して完全な保護を提供するサンドボックスは存在しないと指摘し、新しいツールをテストする際には隔離システム上に展開することを推奨しています。(出典:InFoQ)
NVIDIAがNemoClawをベースにしたローカルサンドボックスAIアシスタント構築チュートリアルを公開
ME News ニュース、4月18日(UTC+8)、NVIDIAは最近、開発者が安全で長期にわたり完全にローカルな自主AIアシスタントを構築する方法を指導する技術チュートリアルを公開しました。このチュートリアルは、NVIDIAのオープンソースリファレンススタックNemoClawに基づいており、このスタックはOpenShellセキュアランタイムとOpenClawセルフホストゲートウェイを統合し、サードパーティのクラウド上にAIエージェントを展開する際のデータプライバシーとコントロールリスクを解決することを目的としています。 チュートリアルは、NVIDIA DGX Spark(GB10)システム上での展開手順を詳細に示しており、環境設定、ローカルサービスモデル、スタックのインストール、Telegramへの接続を含みます。展開には、特定のハードウェア(DGX SparkでUbuntu 24.04 LTSを実行)、ソフトウェア(Docker 28.x+、Ollama)、およびTelegramボットトークンの作成などの前提条件を満たす必要があります。操作にかかる時間は約20〜30分で、最初のモデルダウンロード(約87 GB)に15〜30分かかると見積もられています。主要なコンポーネントには、NemoClaw、OpenShell、OpenClaw、Nemotron 3 Super 120B LLM、NIMまたはOllama推論展開が含まれます。 さらに、記事は、OpenShellは強力な隔離機能を提供しますが、高度なプロンプト注入に対して完全な保護を提供するサンドボックスは存在しないと指摘し、新しいツールをテストする際には隔離システム上に展開することを推奨しています。(出典:InFoQ)