Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Futures Kickoff
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Mode suara ChatGPT akan menjadi lebih lancar melalui model waktu nyata yang baru
Investing.com – Menurut laporan dari The Information, OpenAI sedang mengembangkan sebuah model audio baru yang bertujuan membuat percakapan dengan ChatGPT terasa kurang mekanis, model ini memungkinkan AI untuk menyesuaikan responsnya secara real-time saat terganggu.
Saat ini, mode suara tingkat lanjut di ChatGPT menggunakan sistem percakapan bergiliran, yang mengharuskan pengguna menyelesaikan bicara sebelum AI memproses audio dan menghasilkan respons. Jika pengguna menyela dengan kata-kata seperti “baik” atau “hmm”, model ini akan berhenti berbicara sepenuhnya, bukan melanjutkan percakapan secara alami.
Model baru yang disebut BiDi atau dua arah ini dirancang untuk terus memproses suara pembicara agar dapat segera menyesuaikan respons saat terganggu. Dibandingkan dengan model audio yang ada, ini akan membuat alur percakapan menjadi lebih alami, karena model saat ini akan menghasilkan respons tetap yang tidak dapat diubah begitu AI mulai berbicara.
Namun, teknologi ini belum siap untuk dirilis. Menurut seseorang yang mengetahui proyek ini, setelah beberapa menit percakapan, prototipe model sering mulai mengalami gangguan atau mengeluarkan suara yang terdengar aneh. Meskipun para peneliti OpenAI awalnya berharap merilis BiDi pada kuartal pertama tahun ini, jadwalnya mungkin akan tertunda hingga kuartal kedua atau lebih lambat.
OpenAI percaya bahwa memperkecil kesenjangan kinerja antara model suara dan model berbasis teks akan memperluas penggunaan AI secara global, karena kebanyakan orang akan merasa lebih alami berinteraksi dengan asisten AI daripada mengirim teks.
Model BiDi diperkirakan akan sangat cocok untuk aplikasi dukungan pelanggan. Misalnya, jika seorang pelanggan yang menelepon agen dukungan AI dari retailer memutuskan untuk mengganti barang alih-alih mengembalikan, secara teori BiDi akan memungkinkan agen untuk beralih percakapan dengan lancar, bukan berhenti atau bingung.
Orang yang mengetahui tentang model audio ini juga menyatakan bahwa model ini lebih unggul dalam menggunakan alat dan aplikasi eksternal. Sebelumnya, OpenAI melaporkan berencana meningkatkan model audio mereka untuk perangkat berbasis AI yang akan digunakan pengguna utama melalui interaksi suara di masa depan, dan sedang mempertimbangkan pengembangan speaker pintar yang dapat memeriksa email atau memesan layanan melalui perintah suara.
Artikel ini diterjemahkan dengan bantuan kecerdasan buatan. Untuk informasi lebih lanjut, silakan lihat ketentuan penggunaan kami.