HappyHorse encabeza la prueba ciega de videos con IA de forma anónima, Alibaba's Taotian y Sand.ai bajo escrutinio

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, un modelo anónimo llamado HappyHorse-1.0 encabezó el ranking de Video Arena en la plataforma de evaluación de videos con IA Artificial Analysis la semana pasada, asegurando el primer lugar tanto en las categorías de texto a video como de imagen a video (excluyendo audio). Esto empujó a Seedance 2.0 de ByteDance al segundo puesto. En la categoría de audio, Seedance 2.0 aún lidera por un margen estrecho. No hubo conferencia de prensa, no hubo blog técnico y no hubo atribución a una empresa, y nadie lo ha reclamado públicamente todavía. El ranking de Video Arena se basa en un sistema de pruebas ciegas con Elo, en el que los usuarios votan por el video que prefieren entre dos opciones generadas sin conocer la identidad del modelo. HappyHorse ha estado en la lista por un tiempo corto, con un tamaño de muestra de aproximadamente 3,500, que es menos de la mitad de Seedance 2.0, lo que da como resultado un amplio intervalo de confianza (±12-13 puntos). Sin embargo, la ventaja en la categoría sin audio (aproximadamente 76 puntos para texto a video y alrededor de 48 puntos para imagen a video) supera con creces el margen de error. Según el orden de los idiomas en el sitio web oficial (con chino y cantonés listados antes que el inglés) y la referencia de “HappyHorse” al Año del Caballo en 2026, los expertos de la industria especulan que el modelo proviene de un equipo chino. Hay dos teorías principales: 1. Varios medios de la industria afirman que el modelo proviene del Future Life Lab del grupo Taotian de Alibaba, liderado por Zhang Di, quien anteriormente se desempeñó como Vicepresidente de Tecnología en Kuaishou y liderará el desarrollo de Keling AI a partir de 2024, con un lanzamiento planificado de Keling 2.0 Master Edition en abril de 2025. En noviembre de ese mismo año, volverá a Alibaba. 2. User Vigo Zhao realizó una comparación detallada y descubrió que HappyHorse coincide completamente con múltiples indicadores de referencia de daVinci-MagiHuman, que fue publicado como código abierto por la startup de video con IA Sand.ai en marzo de este año, y la estructura de los sitios web oficiales también es altamente similar. Sand.ai fue fundada por Cao Yue, el primer autor de Swin Transformer, y en la industria se la conoce como el “DeepSeek de los videos con IA”. El sitio web oficial de HappyHorse indica que el modelo tiene 15 mil millones de parámetros, 40 capas de transformadores de autoatención, utiliza una arquitectura de Transfusion (que unifica la predicción autoregresiva de texto y la generación de difusión de audio de video dentro del mismo modelo), tiene inferencia de 8 pasos, produce video 1080p con audio sincronizado y admite lip-sync en siete idiomas: chino, inglés, japonés, coreano, alemán, francés y cantonés. Es totalmente de código abierto y permite uso comercial.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado