IOSG: Di mana titik ledakan Web3+AI berikutnya?

Penulis: IOSG Ventures

Terima kasih atas umpan balik dari Zhenyang@Upshot, Fran@Giza, Ashely@Neuronets, Matt@Valence, Dylan@Pond.

Penelitian ini bertujuan untuk mengeksplorasi bidang kecerdasan buatan mana yang paling penting bagi pengembang, serta peluang apa yang mungkin menjadi peluang besar berikutnya di Web3 dan bidang kecerdasan buatan.

Sebelum berbagi pandangan penelitian baru, kami sangat senang telah berpartisipasi dalam putaran pendanaan pertama RedPill sebesar $5 juta, dan sangat bersemangat untuk tumbuh bersama RedPill ke depannya!

IOSG:Web3+AI下一个爆发点在哪?

TL;DR

Dengan penggabungan Web3 dan AI menjadi topik menarik dalam dunia mata uang enkripsi, infrastruktur AI dalam dunia enkripsi berkembang pesat. Namun, pemanfaatan sebenarnya dari AI atau aplikasi yang dibangun dengan AI tidak sebanyak yang diharapkan, dan masalah homogenisasi infrastruktur AI mulai terlihat. Pada waktu yang lalu, kami terlibat dalam putaran pendanaan pertama RedPill yang memunculkan pemahaman yang lebih mendalam.

  • Alat utama untuk membangun AI Dapp termasuk akses Desentralisasi OpenAI, jaringan GPU, jaringan inferensi, dan jaringan proxy.
  • Alasan mengapa jaringan GPU lebih populer daripada "periode Penambangan BTC", adalah karena: pasar AI lebih besar, pertumbuhannya cepat dan stabil; AI mendukung jutaan aplikasi setiap hari; AI membutuhkan beragam model GPU dan lokasi server; teknologinya lebih matang daripada sebelumnya; dan pasar pelanggannya lebih luas.
  • Jaringan penalaran dan jaringan agen memiliki infrastruktur yang mirip, namun fokusnya berbeda. Jaringan penalaran utamanya digunakan oleh pengembang berpengalaman untuk mendeploy model mereka sendiri, dan menjalankan model non-LLM tidak selalu memerlukan GPU. Jaringan agen lebih fokus pada LLM, pengembang tidak perlu membawa model mereka sendiri, namun lebih memperhatikan teknik petunjuk dan bagaimana menghubungkan berbagai agen. Jaringan agen selalu memerlukan GPU yang berkinerja tinggi.
  • Proyek infrastruktur AI memiliki komitmen besar dan terus meluncurkan fitur baru.
  • Sebagian besar proyek enkripsi asli masih berada dalam tahap Testnet, kestabilannya buruk, konfigurasinya rumit, fungsinya terbatas, dan masih memerlukan waktu untuk membuktikan keamanan dan privasinya.
  • Dalam asumsi bahwa AI Dapp menjadi tren besar, masih ada banyak area yang belum dikembangkan, seperti infrastruktur yang terkait dengan pemantauan dan RAG, model asli Web3, agen Desentralisasi dengan API asli enkripsi dan data, serta jaringan evaluasi.
  • Integrasi vertikal adalah tren yang signifikan. Proyek infrastruktur berusaha untuk menyediakan layanan satu atap, menyederhanakan pekerjaan pengembang AI Dapp.
  • Masa depan akan menjadi tipe hybrid. Sebagian inferensi dilakukan di frontend, sedangkan sebagian dihitung on-chain, yang dapat mempertimbangkan faktor biaya dan verifikasi.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSG

Pengantar

  • Kombinasi Web3 dan AI adalah salah satu topik paling menarik dalam bidang enkripsi saat ini. Para pengembang berbakat sedang membangun infrastruktur AI untuk membawa kecerdasan ke dalam Smart Contract. Membangun AI dApp adalah tugas yang sangat kompleks, di mana para pengembang perlu menangani berbagai hal termasuk data, model, daya komputasi, operasi, implementasi, dan integrasi dengan blockchain. Menghadapi kebutuhan-kebutuhan ini, para pendiri Web3 telah mengembangkan berbagai solusi awal, seperti jaringan GPU, anotasi data komunitas, model-model yang dilatih oleh komunitas, inferensi dan pelatihan AI yang dapat diverifikasi, serta toko agen.
  • Di bawah latar belakang infrastruktur yang berkembang ini, pemanfaatan AI yang sebenarnya atau aplikasi yang dibangun untuk AI tidaklah banyak. Ketika pengembang mencari tutorial pengembangan AI dApp, mereka menemukan bahwa tutorial yang terkait dengan infrastruktur AI asli tidak banyak, dan sebagian besar tutorial hanya berkaitan dengan pemanggilan API OpenAI di frontend.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

  • Aplikasi saat ini belum sepenuhnya memanfaatkan fitur Desentralisasi dan verifikasi dari blockchain, tetapi situasi ini akan segera berubah. Saat ini, sebagian besar infrastruktur kecerdasan buatan yang fokus pada enkripsi telah meluncurkan jaringan pengujian dan berencana untuk beroperasi secara resmi dalam 6 bulan mendatang.
  • Penelitian ini akan secara rinci memperkenalkan alat utama yang tersedia dalam infrastruktur kecerdasan buatan di bidang enkripsi. Mari bersiap-siap menyambut era enkripsi GPT-3.5!

1. RedPill: Memberikan otorisasi Desentralisasi untuk OpenAI

Poin masuk yang bagus yang telah disebutkan sebelumnya adalah investasi kami di RedPill.

OpenAI memiliki beberapa model kuat tingkat dunia, seperti GPT-4-vision, GPT-4-turbo, dan GPT-4o, yang menjadi pilihan untuk membangun Dapp kecerdasan buatan canggih.

Pengembang dapat mengintegrasikan OpenAI API ke dalam dApp melalui Mesin Oracle atau antarmuka depan.

RedPill mengintegrasikan API OpenAI dari pengembang yang berbeda di bawah satu antarmuka, untuk menyediakan layanan kecerdasan buatan yang cepat, ekonomis, dan dapat diverifikasi bagi pengguna di seluruh dunia, sehingga demokratisasi sumber daya model kecerdasan buatan terkemuka dapat tercapai. Algoritme rute RedPill akan mengarahkan permintaan pengembang ke kontributor tunggal. Permintaan API akan dieksekusi melalui jaringan distribusi mereka, menghindari batasan apa pun dari OpenAI dan memecahkan beberapa masalah umum yang dihadapi oleh pengembang, seperti enkripsi.

  • Batasan TPM (Token per Menit): Penggunaan Token oleh akun baru dibatasi dan tidak dapat memenuhi kebutuhan dApp populer yang bergantung pada AI.
  • Batasan Akses: Beberapa model memiliki batasan akses untuk akun baru atau untuk beberapa negara.

Dengan menggunakan kode permintaan yang sama tetapi mengganti nama host, pengembang dapat mengakses model OpenAI dengan biaya rendah, skalabilitas tinggi, dan tanpa batasan.

IOSG:Web3+AI下一个爆发点在哪?

IOSG:Web3+AI下一个爆发点在哪?

2. Jaringan GPU

Selain menggunakan API OpenAI, banyak pengembang juga memilih untuk meng-hosting model di rumah. Mereka dapat memanfaatkan jaringan GPU Desentralisasi, seperti io.net, Aethir, Akash, dan jaringan populer lainnya, untuk membangun klaster GPU mereka sendiri dan melakukan penyebaran serta menjalankan berbagai model internal atau Sumber Terbuka yang kuat.

Jaringan GPU Desentralisasi seperti ini dapat menggunakan daya komputasi dari individu atau pusat data kecil, menyediakan konfigurasi yang fleksibel, pilihan lokasi server yang lebih panjang, dan biaya yang lebih rendah, sehingga pengembang dapat dengan mudah melakukan eksperimen terkait AI dengan anggaran terbatas. Namun, karena sifat Desentralisasi, jaringan GPU semacam ini masih memiliki keterbatasan dalam hal fungsionalitas, ketersediaan, dan privasi data.

IOSG:Web3+AI下一个爆发点在哪?

Dalam beberapa bulan terakhir, permintaan GPU sangat tinggi, melebihi ledakan Penambangan BTC sebelumnya. Alasan untuk fenomena ini termasuk:

  • Jumlah pelanggan yang dituju bertambah, jaringan GPU sekarang melayani pengembang AI, mereka tidak hanya banyak tetapi juga setia, dan tidak akan terpengaruh oleh fluktuasi harga Kripto.
  • Dibandingkan dengan perangkat khusus Penambangan, GPU Desentralisasi menawarkan model dan spesifikasi yang lebih long, lebih cocok untuk memenuhi kebutuhan iez. Terutama untuk pemrosesan model besar yang membutuhkan VRAM yang lebih tinggi, sementara tugas kecil memiliki pilihan GPU yang lebih sesuai. Selain itu, GPU Desentralisasi dapat melayani pengguna akhir dengan latensi Drop yang rendah.
  • Teknologi semakin matang, jaringan GPU bergantung pada Blok chain berkecepatan tinggi seperti Solana Pembayaran, teknologi virtualisasi Docker, dan klaster komputasi Ray.
  • Dalam hal pengembalian investasi, pasar AI sedang berkembang, ada peluang pengembangan aplikasi dan model baru yang panjang, tingkat pengembalian yang diharapkan dari model H100 adalah 60-70%, sementara Penambangan Bitcoin jauh lebih rumit, hanya pemenang yang bisa bertahan, dan produksi terbatas.
  • Perusahaan penambangan BTCPenambangan seperti Iris Energy, Core Scientific, dan Bitdeer juga mulai mendukung jaringan GPU, menyediakan layanan AI, dan aktif membeli GPU yang dirancang khusus untuk AI, seperti H100.

Rekomendasi: Untuk pengembang Web2 yang tidak terlalu memperhatikan SLA, io.net menyediakan pengalaman yang sederhana dan mudah digunakan, dan merupakan pilihan yang sangat terjangkau.

3. Jaringan Inferensi

Ini adalah inti infrastruktur AI enkripsi asli. Ini akan mendukung miliaran operasi inferensi AI di masa depan. Banyak lapisan AI layer1 atau layer2 menyediakan kemampuan bagi pengembang untuk memanggil inferensi AI secara on-chain. Pemain terkemuka di pasar termasuk Ritual, Valence, dan Fetch.ai.

Perbedaan-perbedaan jaringan ini terletak pada:

  1. Kinerja (latensi, waktu komputasi)
  2. Model yang Didukung
  3. Verifikasi
  4. Harga (biaya konsumsi on-chain, biaya penalaran)
  5. Pengalaman Pengembangan

3.1 Tujuan

Idealnya, pengembang dapat dengan mudah mengakses layanan inferensi AI kustom mereka di mana pun, dengan cara apa pun, tanpa hambatan yang nyata dalam proses integrasi.

Jaringan Inferensi menyediakan semua dukungan dasar yang dibutuhkan pengembang, termasuk pembangkitan on-demand dan proof of validation, komputasi inferensi, Relay dan validasi data inferensi, menyediakan antarmuka Web2 dan Web3, deployment model satu-klik, pemantauan sistem, operasi Interaksi Cross-Chain, integrasi sinkron dan eksekusi waktu.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Dengan fitur-fitur ini, pengembang dapat mengintegrasikan layanan reasoning ke dalam Smart Contract yang sudah ada. Misalnya, saat membangun robot perdagangan Keuangan Desentralisasi, robot-robot ini akan menggunakan model pembelajaran mesin untuk mencari waktu beli dan jual yang spesifik untuk pasangan perdagangan, dan mengeksekusi strategi perdagangan yang sesuai di platform perdagangan dasar.

Dalam keadaan yang ideal, semua infrastruktur di-host di cloud. Pengembang hanya perlu mengunggah model strategi perdagangan mereka dalam format umum seperti torch, dan jaringan inferensi akan menyimpan dan menyediakan model untuk pertanyaan Web2 dan Web3.

Setelah semua langkah implementasi model selesai, pengembang dapat langsung memanggil inferensi model melalui Web3 API atau smart contract. Jaringan inferensi akan terus menjalankan strategi perdagangan ini dan memberikan hasilnya kembali ke smart contract dasar. Jika dana komunitas yang dikelola oleh pengembang besar, perlu juga untuk memberikan verifikasi hasil inferensi. Begitu hasil inferensi diterima, smart contract akan melakukan perdagangan berdasarkan hasil tersebut.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

3.1.1 Asynchronous dan Synchronous

Secara teori, operasi inferensi yang dieksekusi secara asinkron dapat memberikan kinerja yang lebih baik; Namun, cara ini mungkin tidak nyaman dalam pengalaman pengembangan.

Ketika menggunakan mode asinkron, pengembang perlu mengirimkan tugas ke kontrak cerdas jaringan inferensi. Setelah tugas inferensi selesai, Kontrak Pintar jaringan inferensi akan mengembalikan hasilnya. Dalam mode pemrograman ini, logika dibagi menjadi dua bagian: panggilan inferensi dan pemrosesan hasil inferensi.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Jika pengembang memiliki panggilan penalaran bertingkat dan banyak logika kontrol, situasinya akan menjadi lebih buruk.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Mode pemrograman asinkron membuat integrasinya dengan Smart Contract yang ada sulit dilakukan. Ini memerlukan pengembang untuk menulis banyak kode tambahan, dan mengelola penanganan kesalahan serta ketergantungan.

Secara relatif, pemrograman sinkron lebih intuitif bagi pengembang, tetapi itu menghadirkan masalah dalam waktu respons dan desain blok. Misalnya, jika data input adalah waktu blok atau data yang bergerak cepat seperti harga, maka setelah pemrosesan selesai, data tidak lagi segar, ini dapat menyebabkan perlunya Rollback dalam eksekusi Smart Contract dalam situasi tertentu. Bayangkan Anda melakukan transaksi dengan harga yang sudah ketinggalan zaman.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Sebagian besar infrastruktur dasar AI menggunakan pemrosesan asinkron, tetapi Valence mencoba menyelesaikan masalah ini.

3.2 situasi aktual

Sebenarnya, banyak jaringan inferensi baru masih dalam tahap pengujian, seperti jaringan Ritual. Menurut dokumen mereka yang terbuka, fungsi jaringan ini saat ini masih terbatas (seperti verifikasi, bukti, dan fungsi lainnya belum tersedia). Mereka saat ini tidak menyediakan infrastruktur cloud untuk mendukung perhitungan AI on-chain, tetapi menyediakan kerangka kerja untuk mengelola sendiri perhitungan AI dan mengirimkan hasilnya ke on-chain.

Ini adalah arsitektur yang menjalankan AIGC Non-fungible token. Model difusi menghasilkan Non-fungible token dan mengunggahnya ke Arweave. Jaringan inferensi akan mencetak Non-fungible token ini di on-chain Alamat Arweave.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Proses ini sangat kompleks, pengembang harus memasang dan memelihara sebagian besar infrastruktur sendiri, seperti Ritual Node yang dilengkapi dengan logika layanan kustom, Stable Diffusion Node, dan Smart Contract NFT.

Rekomendasi: Saat ini, jaringan inferensi yang ada cukup kompleks dalam mengintegrasikan dan mendeploy model kustom, dan pada tahap ini sebagian besar jaringan belum mendukung fungsi verifikasi. Menerapkan teknologi AI ke frontend akan memberikan pilihan yang relatif sederhana bagi pengembang. Jika Anda sangat membutuhkan fungsi verifikasi, Giza sebagai penyedia ZKML adalah pilihan yang baik.

4. Jaringan Agen

Jaringan agen memungkinkan pengguna untuk dengan mudah menyesuaikan agen. Jaringan ini terdiri dari entitas atau Smart Contract yang mampu mengeksekusi tugas secara mandiri, berinteraksi satu sama lain, dan berinteraksi dengan jaringan Blockchain, semua tanpa intervensi langsung dari manusia. Ini terutama ditujukan untuk teknologi LLM. Misalnya, itu dapat menyediakan bot obrolan GPT yang mendalam tentang Ethereum. Alat ini saat ini terbatas, pengembang juga belum dapat mengembangkan aplikasi kompleks di atasnya.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Tetapi di masa depan, jaringan agen akan menyediakan alat yang lebih panjang kepada agen, tidak hanya pengetahuan, tetapi juga kemampuan untuk memanggil API eksternal, menjalankan tugas tertentu, dan lain sebagainya. Pengembang akan dapat menghubungkan beberapa agen panjang untuk membangun alur kerja. Misalnya, menulis kontrak pintar Solidity melibatkan beberapa agen khusus, termasuk agen desain protokol, agen pengembangan Solidity, agen audit keamanan kode, dan agen implementasi Solidity.

IOSG:Web3+AI下一个爆发点在哪?

Sumber: IOSGVentures

Kami mengkoordinasikan kerja sama agen ini melalui penggunaan petunjuk dan skenario.

Beberapa contoh jaringan proxy termasuk Flock.ai, Myshell, Theoriq.

Rekomendasi: Sebagian besar fungsi dari sebagian besar agen saat ini terbatas. Untuk kasus penggunaan tertentu, agen Web2 dapat memberikan layanan yang lebih baik dan dilengkapi dengan alat pengaturan yang matang, seperti Langchain, Llamaindex.

5. Perbedaan Jaringan Agen dan Jaringan Inferensi

Jaringan agen lebih berfokus pada LLM, menyediakan alat-alat seperti Langchain untuk mengintegrasikan banyak agen. Biasanya, pengembang tidak perlu mengembangkan model pembelajaran mesin sendiri, jaringan agen telah menyederhanakan proses pengembangan dan implementasi model. Mereka hanya perlu menghubungkan agen dan alat yang diperlukan. Dalam banyak kasus, pengguna akhir akan langsung menggunakan agen ini.

Jaringan inferensi adalah infrastruktur dukungan dari jaringan agen. Ini memberikan akses tingkat lebih rendah kepada pengembang. Secara normal, pengguna akhir tidak menggunakan jaringan inferensi secara langsung. Pengembang perlu mendeploy model mereka sendiri, tidak hanya terbatas pada LLM, dan mereka dapat menggunakannya melalui titik akses off-chain atau on-chain.

Jaringan perantara dan jaringan inferensi bukanlah produk yang sepenuhnya independen. Kami telah mulai melihat beberapa produk yang terintegrasi secara vertikal. Mereka menyediakan kemampuan perantara dan inferensi secara bersamaan karena ketergantungan fungsionalitas ini pada infrastruktur yang serupa.

IOSG:Web3+AI下一个爆发点在哪?

6. Tempat Peluang Baru

Selain inferensi, pelatihan, dan jaringan agen model, ada banyak bidang baru yang layak dieksplorasi dalam domain web3:

  • Dataset: Bagaimana mengubah data Blok menjadi kumpulan data yang dapat digunakan untuk pembelajaran mesin? Pengembang pembelajaran mesin memerlukan data yang lebih spesifik dan khusus. Misalnya, Giza menyediakan beberapa kumpulan data berkualitas tinggi tentang DeFi, yang dirancang khusus untuk pelatihan pembelajaran mesin. Data yang ideal seharusnya tidak hanya berupa data tabel sederhana, tetapi juga harus mencakup data grafis yang bisa menggambarkan interaksi dunia Blok. Saat ini, kita masih kekurangan dalam hal ini. Beberapa proyek saat ini sedang mencoba menyelesaikan masalah ini dengan cara memberikan insentif kepada individu untuk menciptakan kumpulan data baru, seperti Bagel dan Sahara, yang berjanji untuk melindungi privasi data pribadi.
  • Penyimpanan model: Beberapa model memiliki ukuran yang besar, bagaimana cara menyimpan, mendistribusikan, dan mengontrol versi model tersebut adalah kunci, ini berkaitan dengan kinerja dan biaya pembelajaran mesin on-chain. Di bidang ini, proyek-proyek inovatif seperti FIL, AR, dan 0g sudah membuat kemajuan.
  • Pelatihan Model: Pelatihan model yang didistribusikan dan dapat diverifikasi adalah tantangan yang sulit. Gensyn, Bittensor, Flock, dan Allora telah membuat kemajuan yang signifikan.
  • Pemantauan: Karena inferensi model terjadi baik on-chain maupun off-chain, kita perlu infrastruktur baru untuk membantu pengembang web3 melacak penggunaan model, secara cepat mendeteksi masalah dan deviasi yang mungkin ada. Dengan alat pemantauan yang tepat, pengembang machine learning web3 dapat melakukan penyesuaian yang tepat waktu dan terus meningkatkan akurasi model.
  • Infrastruktur RAG: RAG terdistribusi memerlukan lingkungan infrastruktur yang baru, memiliki permintaan tinggi untuk penyimpanan, embedded computing, dan database vektor, sambil memastikan keamanan privasi data. Ini sangat berbeda dengan infrastruktur Web3 AI saat ini, yang sebagian besar bergantung pada pihak ketiga untuk menyelesaikan RAG, seperti Firstbatch dan Bagel.
  • Model yang didesain khusus untuk Web3: Tidak semua model cocok untuk situasi Web3. Dalam kasus long, perlu untuk melatih ulang model untuk cocok dengan aplikasi spesifik seperti prediksi harga, rekomendasi, dan lain-lain. Dengan perkembangan infrastruktur AI yang semakin berkembang, kami berharap untuk memiliki lebih banyak model Web3 lokal di masa depan untuk melayani aplikasi AI yang lebih long. Misalnya, Pond sedang mengembangkan GNN blockchain untuk prediksi harga, rekomendasi, deteksi penipuan, dan anti pencucian uang dalam berbagai long situasi.
  • Evaluasi Jaringan: Menilai agen tanpa umpan balik manusia tidaklah mudah. Dengan penyebaran alat pembuatan agen, akan ada banyak agen yang muncul di pasar. Oleh karena itu, diperlukan sistem untuk menampilkan kemampuan agen-agen tersebut dan membantu pengguna menentukan agen mana yang tampil terbaik dalam situasi tertentu. Sebagai contoh, Neuronets adalah salah satu peserta dalam bidang ini.
  • Mekanisme Konsensus: Untuk tugas AI, PoS mungkin bukan pilihan terbaik. Kompleksitas komputasi, kesulitan verifikasi, dan kekurangan deterministik adalah tantangan utama yang dihadapi PoS. Bittensor menciptakan Mekanisme Konsensus baru yang cerdas, memberikan imbalan kepada Node yang berkontribusi pada model pembelajaran mesin dan output dalam jaringan.

7. Prospek di Masa Depan

Saat ini kami mengamati tren pengembangan integrasi vertikal. Dengan membangun lapisan komputasi dasar, jaringan dapat mendukung berbagai tugas pembelajaran mesin, termasuk pelatihan, inferensi, dan layanan jaringan agen. Model ini dimaksudkan untuk menyediakan solusi lengkap satu atap bagi pengembang pembelajaran mesin Web3.

Saat ini, meskipun on-chain reasoning mahal dan lambat, namun memberikan verifikasi yang sangat baik dan integrasi yang mulus dengan sistem backend (seperti Smart Contract). Saya berpikir masa depan akan menuju ke aplikasi campuran. Sebagian pemrosesan penalaran akan dilakukan di off-chain atau di sisi depan, sedangkan penalaran yang kritis dan penting akan diselesaikan on-chain. Pola ini sudah diterapkan pada perangkat seluler. Dengan memanfaatkan fitur alami perangkat seluler, ia dapat menjalankan model kecil dengan cepat secara lokal dan memindahkan tugas yang lebih kompleks ke cloud untuk pengolahan LLM yang lebih besar.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • 3
  • Bagikan
Komentar
0/400
GaoHaifengvip
· 2024-07-30 07:21
Serangan 100x koin 📈
Balas0
GaoHaifengvip
· 2024-07-30 07:19
Menyerang 100x koin 📈
Balas0
GaoHaifengvip
· 2024-07-30 07:19
Semua All in 🙌
Balas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)