福利加码,Gate 广场明星带单交易员三期招募开启!
入驻发帖 · 瓜分$30,000月度奖池 & 千万级流量扶持!
如何参与:
1️⃣ 报名成为跟单交易员:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 报名活动:https://www.gate.com/questionnaire/7355
3️⃣ 入驻Gate广场,持续发布交易相关原创内容
丰厚奖励等你拿:
首发优质内容即得$30 跟单体验金
每双周瓜分$10,000U内容奖池
Top 10交易员额外瓜分$20,000U登榜奖池
精选帖推流、首页推荐、周度明星交易员曝光
详情:https://www.gate.com/announcements/article/50291
VS Code 现在允许你通过 Ollama 使用本地 AI 模型
Headline
VS Code 添加 Ollama 支持,让开发者选择本地或云端 AI 模型
Summary
微软通过 GitHub Copilot 将 Ollama 支持直接集成到 VS Code 中。Ollama 是一个开源工具,可以在您自己的机器或您控制的服务器上运行大型语言模型。现在,您可以从 Copilot 的模型选择器中选择任何由 Ollama 托管的模型,并用于代码辅助。这使开发者在不将代码发送到外部云服务的情况下,可以使用 AI。您可以离线运行像 Llama3 或 DeepSeek 的模型,由于一切都是本地运行,响应速度更快,并且避免了云 API 的费用。
Analysis
这将 GitHub Copilot——通常通过微软的云使用 GPT 或 Claude——连接到您希望自己运行的任何开源模型。对于那些不能或不愿意将专有代码发送到外部服务器的开发者来说,这是一个重要的变化。
这个时机是合理的。消费硬件的性能已经足够好,可以在本地运行有用的模型,并且越来越多的开发者喜欢可以检查和修改的开源工具。通过支持 Ollama,微软将这些用户留在 VS Code,而不是推动他们转向其他替代品。
显然还有商业角度:担心数据离开其网络的企业现在有更少的理由完全避开 Copilot。他们可以先从本地模型开始,之后再为需要更多计算的任务添加云选项。
一些早期用户报告了设置问题——没有重大问题,但足够的摩擦可能会减缓初期采用。集成在配置完成后能够正常工作,但入门过程可能会更顺畅。
更广泛的影响是开源模型开发得到了提升。当数百万开发者使用的工具能够轻松连接到社区构建的模型时,会有更多人真正尝试它们。这对开源模型生态系统是有益的,无论您对微软的动机有什么看法。
Impact Assessment