Luma AI випустила модель мультимодального розуміння UNI-1

robot
Генерація анотацій у процесі

ME News Новини, 3 квітня (UTC+8), Luma AI нещодавно оголосила про запуск мультимодальної моделі розуміння UNI-1, основна ідея якої — “менше людської праці, більше розуму”. Ця модель побудована на основі єдиного інтелекту (Unified Intelligence), спрямована на розуміння намірів користувачів, реагування на команди та спільне мислення з користувачем для створення піксельного контенту. UNI-1 має кілька конкретних можливостей, включаючи доповнення знань у сценаріях, просторове міркування, перетворення на основі логіки, багатомовний текстовий рендеринг (наприклад, китайський каліграфічний стиль, азбука Морзе), а також логічне перетворення за зразком (наприклад, яблуко у яблучний пиріг, кіт у лев). Крім того, вона може генерувати зображення з складною просторовою інформацією, наприклад, інфографіку та 3D-схеми. Ця модель також підтримує відео-генерацію, інтелектуальне керівництво, оцінку культурного сприйняття тощо, а також пропонує безкоштовний пробний період, цінові плани, корпоративні послуги та API. За словами автора, це важливий крок для Luma у сфері генеративного AI, що рухається до більш глибокого розуміння фізичного світу, більшої керованості та логічної відповідності візуального контенту. (Джерело: InFoQ)

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити