Luma AI lanza el modelo de razonamiento multimodal UNI-1

robot
Generación de resúmenes en curso

ME News Noticias, 3 de abril (UTC+8), Luma AI anunció recientemente el lanzamiento del modelo de razonamiento multimodal UNI-1, cuyo concepto central es “menos trabajo manual, más inteligencia”. El modelo está construido sobre inteligencia unificada (Unified Intelligence), con el objetivo de entender la intención del usuario, responder a instrucciones y colaborar con el usuario para pensar, generando contenido en píxeles. UNI-1 posee varias capacidades específicas, incluyendo completado de escenarios de conocimiento común, razonamiento espacial, transformaciones basadas en razonabilidad, renderizado de texto multilingüe (como caligrafía en chino, código Morse), y transformaciones razonables basadas en imágenes de referencia (como convertir una manzana en pastel de manzana, un gato en un león). Además, puede generar imágenes con información espacial compleja, como gráficos informativos y diagramas en 3D. Este modelo también soporta generación de videos, guía inteligente, evaluación de percepción cultural, entre otras funciones, y ofrece prueba gratuita, planes de precios, servicios empresariales y API. Según el artículo, esto marca un paso importante para Luma en el campo de la IA generativa, avanzando hacia una generación de contenido visual que entienda mejor el mundo físico, sea más controlable y más lógica. (Fuente: InFoQ)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado