Luma AI merilis model inferensi multimodal UNI-1

robot
Pembuatan abstrak sedang berlangsung

Berita ME News, 3 April (UTC+8), Luma AI baru-baru ini mengumumkan peluncuran model inferensi multimodal UNI-1, yang inti konsepnya adalah “lebih sedikit tenaga manusia, lebih banyak kecerdasan”. Model ini dibangun berdasarkan kecerdasan terpadu (Unified Intelligence), bertujuan untuk memahami niat pengguna, merespons instruksi, dan berkolaborasi dengan pengguna dalam berpikir untuk menghasilkan konten piksel. UNI-1 memiliki berbagai kemampuan spesifik, termasuk melengkapi skenario pengetahuan umum, inferensi spasial, konversi berbasis rasionalitas, rendering teks multibahasa (seperti kaligrafi Cina, kode Morse), serta konversi rasional berdasarkan gambar referensi (misalnya mengubah apel menjadi pai apel, kucing menjadi singa). Selain itu, ia juga dapat menghasilkan gambar yang mengandung informasi spasial kompleks, seperti grafik informasi dan diagram 3D. Model ini juga mendukung pembuatan video, panduan cerdas, penilaian persepsi budaya, dan menyediakan uji coba gratis, skema harga, layanan perusahaan, serta antarmuka API. Menurut pendapat dalam artikel ini, ini menandai langkah penting bagi Luma dalam bidang AI generatif menuju penciptaan konten visual yang lebih memahami dunia fisik, lebih dapat dikendalikan, dan lebih logis. (Sumber: InFoQ)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan