Alibaba lanzó un modelo de IA "compacto" para ejecutar en smartphones
El gigante tecnológico chino Alibaba Cloud ha lanzado el modelo de IA multimodal Qwen2.5-Omni-7B, capaz de procesar texto, imágenes, audio, video, así como generar respuestas textuales y de voz en tiempo real.
La red neuronal cuenta con 7 mil millones de parámetros. Según los representantes de la empresa, se puede ejecutar en dispositivos periféricos como teléfonos y laptops sin pérdida de eficiencia y rendimiento.
«Esta combinación única hace que el modelo sea la base perfecta para desarrollar agentes de IA flexibles y rentables, que aportan beneficios tangibles, especialmente en aplicaciones de voz inteligentes», se indica en el anuncio.
Como ejemplo de las aplicaciones de Qwen2.5-Omni-7B, la empresa mencionó la mejora de la vida de las personas con discapacidad visual. Con su ayuda, pueden orientarse mejor en su entorno. Así, el modelo es capaz de analizar los ingredientes disponibles a través de un video y ofrecer una guía paso a paso para la preparación de alimentos.
«Qwen2.5-Omni-7B ofrece un rendimiento sorprendente en todas las modalidades, compitiendo con modelos especializados de tamaño comparable», destacó la empresa.
La innovación se explica por una nueva arquitectura y un conjunto de datos de alta calidad que se utilizaron para el entrenamiento.
Comparación del rendimiento de Qwen2.5-Omni-7B con competidores. Datos: Alibaba Cloud. El modelo tiene código abierto y está disponible en Hugging Face, GitHub, ModelScope y Qwen Chat.
Recordemos que en marzo Alibaba presentó el modelo de IA orientado a la reflexión QwQ-32.
En enero, el gigante tecnológico chino presentó Qwen 2.5-Max, que supuestamente es más potente que DeepSeek-V3.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Alibaba lanzó un modelo de IA "compacto" para su ejecución en teléfonos inteligentes.
Alibaba lanzó un modelo de IA "compacto" para ejecutar en smartphones
El gigante tecnológico chino Alibaba Cloud ha lanzado el modelo de IA multimodal Qwen2.5-Omni-7B, capaz de procesar texto, imágenes, audio, video, así como generar respuestas textuales y de voz en tiempo real.
La red neuronal cuenta con 7 mil millones de parámetros. Según los representantes de la empresa, se puede ejecutar en dispositivos periféricos como teléfonos y laptops sin pérdida de eficiencia y rendimiento.
Como ejemplo de las aplicaciones de Qwen2.5-Omni-7B, la empresa mencionó la mejora de la vida de las personas con discapacidad visual. Con su ayuda, pueden orientarse mejor en su entorno. Así, el modelo es capaz de analizar los ingredientes disponibles a través de un video y ofrecer una guía paso a paso para la preparación de alimentos.
La innovación se explica por una nueva arquitectura y un conjunto de datos de alta calidad que se utilizaron para el entrenamiento.
Recordemos que en marzo Alibaba presentó el modelo de IA orientado a la reflexión QwQ-32.
En enero, el gigante tecnológico chino presentó Qwen 2.5-Max, que supuestamente es más potente que DeepSeek-V3.