HappyHorse анонімно піднявся на вершину AI відео сліпого тесту, Alibaba TaoTian і Sand.ai підозрюються

robot
Генерація анотацій у процесі

За моніторингом 1M AI News, анонімна модель під назвою HappyHorse-1.0 минулого тижня посіла перше місце в рейтингу Video Arena платформи для оцінювання AI-відео Artificial Analysis, обійшовши суперників у двох лігах (категорії без звуку): у режимах текст-у-видео та зображення-у-видео одночасно. Seedance 2.0 відсунули на друге місце. У категоріях зі звуком Seedance 2.0 усе ще лідирує з незначною перевагою. Немає анонсів, немає технічного блогу, немає підпису компанії; станом на сьогодні ніхто публічно не взяв на себе відповідальність.

Рейтинг Video Arena ґрунтується на системі сліпих тестів Elo: користувачі, не знаючи ідентичності моделей, голосують за кращий варіант серед двох згенерованих відео. Час перебування HappyHorse у рейтингу коротший; обсяг порівнюваних зразків становить приблизно 3500 разів, що менше ніж удвічі від Seedance 2.0. Смуга довіри ширша (±12-13 пунктів), але в режимах без звуку різниця в лідерстві (текст-у-видео близько 76 пунктів, зображення-у-видео близько 48 пунктів) все одно значно перевищує межі похибки.

З огляду на порядок мов на офіційному сайті (китайська та кантонська стоять перед англійською) і на жарт «HappyHorse» у 2026 році Року Коня за китайським календарем, у спільноті вважають, що модель створена китайською командою. Є два основні поширені твердження:

  1. Кілька галузевих медіа стверджують, що модель створена майбутньою лабораторією майбутнього життя (Future Life Lab) групи Ali (Taotian), і що її очолює відповідальний керівник Чжан Ді. Раніше Чжан Ді був віцепрезидентом з технологій у Kuaishou. Починаючи з 2024 року він керував розробкою AI KuaLing, а в квітні 2025 року випустив KuaLing 2.0 у версії «Master», того ж року в листопаді повернувся до Ali
  2. Користувач X Vigo Zhao, послідовно зіставивши дані, виявив, що HappyHorse повністю збігається з daVinci-MagiHuman — відкритим кодом цього року в березні, який оприлюднила AI-відеостартап-компанія Sand.ai. Збігаються численні показники на різних бенчмарках, а структура офіційного сайту також дуже схожа. Sand.ai заснував Cao Yue — перший автор Swin Transformer; у спільноті його називають «DeepSeek у світі AI-відео»

На офіційному сайті HappyHorse показано, що модель має 15 млрд параметрів, 40 шарів self-attention Transformer, використовує архітектуру Transfusion (в межах однієї моделі уніфіковано обробляє текст шляхом autoregressive-передбачення та генерацію відео й аудіо шляхом дифузії), 8 кроків інференсу. Виводить відео у 1080p із синхронізованим аудіо, підтримує синхронізацію артикуляції для семи мов: китайської, англійської, японської, корейської, німецької, французької та кантонської. Повністю відкрита для доступу (open-source) і дозволяє комерційне використання.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити