VS Code 现在允许你通过 Ollama 使用本地 AI 模型

robot
摘要生成中

Headline

VS Code 添加 Ollama 支持,让开发者选择本地或云端 AI 模型

Summary

微软通过 GitHub Copilot 将 Ollama 支持直接集成到 VS Code 中。Ollama 是一个开源工具,可以在您自己的机器或您控制的服务器上运行大型语言模型。现在,您可以从 Copilot 的模型选择器中选择任何由 Ollama 托管的模型,并用于代码辅助。这使开发者在不将代码发送到外部云服务的情况下,可以使用 AI。您可以离线运行像 Llama3 或 DeepSeek 的模型,由于一切都是本地运行,响应速度更快,并且避免了云 API 的费用。

Analysis

这将 GitHub Copilot——通常通过微软的云使用 GPT 或 Claude——连接到您希望自己运行的任何开源模型。对于那些不能或不愿意将专有代码发送到外部服务器的开发者来说,这是一个重要的变化。

这个时机是合理的。消费硬件的性能已经足够好,可以在本地运行有用的模型,并且越来越多的开发者喜欢可以检查和修改的开源工具。通过支持 Ollama,微软将这些用户留在 VS Code,而不是推动他们转向其他替代品。

显然还有商业角度:担心数据离开其网络的企业现在有更少的理由完全避开 Copilot。他们可以先从本地模型开始,之后再为需要更多计算的任务添加云选项。

一些早期用户报告了设置问题——没有重大问题,但足够的摩擦可能会减缓初期采用。集成在配置完成后能够正常工作,但入门过程可能会更顺畅。

更广泛的影响是开源模型开发得到了提升。当数百万开发者使用的工具能够轻松连接到社区构建的模型时,会有更多人真正尝试它们。这对开源模型生态系统是有益的,无论您对微软的动机有什么看法。

Impact Assessment

  • Significance: 高
  • Categories: 开发工具,开源,产品发布
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论