新浪科技讯4月2日上午消息,智谱发布首个原生多模态Coding基座模型GLM-5V-Turbo,宣布该模型深度融合视觉与编程能力,能够原生处理文本、图片、视频等多模态信息,同时擅长编程、长程规划、操作执行等复杂任务。 据悉,GLM-5V-Turbo在多模态Coding、Agent等核心基准上,均以更小尺寸取得了领先表现,引入视觉能力的同时,纯文本编程与推理能力保持了同等水准。并且深度适配Claude Code与龙虾场景,让OpenClaw龙虾具备了真正的视觉能力,能看懂屏幕上的信息。 与传统纯文本Coding模型不同,GLM-5V-Turbo可直接理解设计稿、网页截图、K线图表等视觉信息并生成可运行代码,实现“所见即所得”的AI编程体验。目前,该模型已通过智谱MaaS平台开放接入。(文猛) 海量资讯、精准解读,尽在新浪财经APP 责任编辑:杨赐
智谱はネイティブ多モーダルコーディング基盤モデルGLM-5V-Turboを公開し、OpenClawに深く適応させました
新浪科技讯4月2日上午消息,智谱发布首个原生多模态Coding基座模型GLM-5V-Turbo,宣布该模型深度融合视觉与编程能力,能够原生处理文本、图片、视频等多模态信息,同时擅长编程、长程规划、操作执行等复杂任务。
据悉,GLM-5V-Turbo在多模态Coding、Agent等核心基准上,均以更小尺寸取得了领先表现,引入视觉能力的同时,纯文本编程与推理能力保持了同等水准。并且深度适配Claude Code与龙虾场景,让OpenClaw龙虾具备了真正的视觉能力,能看懂屏幕上的信息。
与传统纯文本Coding模型不同,GLM-5V-Turbo可直接理解设计稿、网页截图、K线图表等视觉信息并生成可运行代码,实现“所见即所得”的AI编程体验。目前,该模型已通过智谱MaaS平台开放接入。(文猛)
海量资讯、精准解读,尽在新浪财经APP
责任编辑:杨赐