Zhipu lanza el modelo base de codificación multimodal nativo GLM-5V-Turbo

robot
Generación de resúmenes en curso

Finanzas del Pueblo, 2 de abril — El 2 de abril, Zhipu publicó el primer modelo base nativo de codificación multimodal GLM-5V-Turbo. El mayor avance de este modelo es la fusión profunda de las capacidades de visión y de programación: puede procesar de forma nativa información multimodal como texto, imágenes, videos, etc., y también sobresale en tareas complejas como programación, planificación a largo plazo y ejecución de operaciones. GLM-5V-Turbo logró resultados líderes en puntos de referencia clave como codificación multimodal y agentes. Al introducir capacidades visuales, mantuvo un nivel equivalente en capacidades de programación y de razonamiento en solo texto, y además se adaptó profundamente a los escenarios de Claude Code y de la Lobster scene, de modo que OpenClaw Lobster cuente con capacidades visuales reales, capaz de entender la información en pantalla. Actualmente, este modelo ya está disponible para acceso abierto a través de la plataforma de Zhipu MaaS.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado