ME 新聞消息,4 月 1 日(UTC+8),近日有消息稱,一個 27B 參數規模的模型在本地 16GB 顯存的 GPU 上以 4 位元量化運行時,在 SWE-bench 基準測試中表現優於 Claude Sonnet 4.5。據文中觀點,該模型能提供與 Claude 4 Opus 相當的推理能力,但資源需求更低。該模型的 v2 版本將思維鏈(chain-of-thought)的冗餘減少了 24%,同時保持了 96.91% 的 HumanEval 準確率。(來源:InFoQ)
27B參數模型在16GB顯存GPU上運行,据稱推理能力接近Claude 4 Opus
ME 新聞消息,4 月 1 日(UTC+8),近日有消息稱,一個 27B 參數規模的模型在本地 16GB 顯存的 GPU 上以 4 位元量化運行時,在 SWE-bench 基準測試中表現優於 Claude Sonnet 4.5。據文中觀點,該模型能提供與 Claude 4 Opus 相當的推理能力,但資源需求更低。該模型的 v2 版本將思維鏈(chain-of-thought)的冗餘減少了 24%,同時保持了 96.91% 的 HumanEval 準確率。(來源:InFoQ)