NVIDIA发布基于NemoClaw构建本地沙盒化AI助手教程

robot
摘要生成中

ME News 消息,4 月 18 日(UTC+8),NVIDIA近日发布了一篇技术教程,指导开发者如何构建一个安全、长期运行且完全本地的自主AI助手。该教程基于NVIDIA的开源参考堆栈NemoClaw,该堆栈集成了OpenShell安全运行时和OpenClaw自托管网关,旨在解决在第三方云上部署AI代理时面临的数据隐私和控制风险。 教程详细演示了在NVIDIA DGX Spark(GB10)系统上的部署步骤,包括环境配置、本地服务模型、安装堆栈并连接到Telegram。部署需要满足特定硬件(DGX Spark运行Ubuntu 24.04 LTS)、软件(Docker 28.x+、Ollama)以及创建Telegram机器人令牌等先决条件。预计主动操作时间为20-30分钟,外加15-30分钟的初始模型下载(约87 GB)。核心组件包括NemoClaw、OpenShell、OpenClaw、Nemotron 3 Super 120B LLM以及NIM或Ollama推理部署。 文中同时指出,尽管OpenShell提供了强大的隔离功能,但没有任何沙盒能提供针对高级提示注入的完全保护,建议在测试新工具时将其部署在隔离系统上。(来源:InFoQ)

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论