IOSG: Jalan keluar dari Infrastruktur WEB3 + AI yang homogen ada di mana?

Penulis: IOSG

TL;DR

Dengan Web3 dan AI bergabung menjadi topik menarik dalam dunia enkripsi, infrastruktur AI di dunia enkripsi berkembang pesat, namun penggunaan nyata dari AI atau aplikasi yang dibangun untuk AI tidak begitu banyak, masalah homogenisasi infrastruktur AI mulai terlihat. Baru-baru ini, pendanaan putaran pertama RedPill yang kami ikuti telah memicu pemahaman yang lebih dalam.

Paket utama untuk membangun AI Dapp termasuk akses Desentralisasi OpenAI, jaringan GPU, jaringan inferensi, dan jaringan proxy.

Alasan mengapa jaringan GPU lebih populer daripada periode Penambangan Bitcoin, adalah karena: pasar AI lebih besar, dan pertumbuhannya cepat dan stabil; AI mendukung jutaan aplikasi setiap hari; AI memerlukan beragam model GPU dan lokasi server; teknologinya lebih matang daripada sebelumnya; dan audiensnya juga lebih luas.

Jaringan inferensi dan jaringan agen memiliki infrastruktur yang serupa tetapi fokus yang berbeda. Jaringan inferensi utamanya digunakan oleh pengembang berpengalaman untuk menerapkan model mereka sendiri, dan menjalankan model non-LLM tidak selalu membutuhkan GPU. Jaringan agen lebih fokus pada LLM, pengembang tidak perlu membawa model mereka sendiri, tetapi lebih fokus pada rekayasa petunjuk dan bagaimana menghubungkan berbagai agen. Jaringan agen selalu membutuhkan GPU yang bertenaga tinggi.

Proyek infrastruktur AI memiliki komitmen yang besar dan terus menghadirkan fitur baru.

Sebagian besar proyek enkripsi asli masih berada di tahap Testnet, tidak stabil, konfigurasi yang rumit, dan fungsinya terbatas, butuh waktu untuk membuktikan keamanan dan privasinya.

Dalam asumsi bahwa AI Dapp menjadi tren besar, masih ada banyak bidang yang belum dikembangkan, seperti pemantauan, infrastruktur terkait RAG, model asli Web3, API asli enkripsi dan agen Desentralisasi untuk data, dan evaluasi jaringan.

Integrasi vertikal adalah tren yang signifikan. Proyek infrastruktur mencoba menyediakan layanan satu atap, menyederhanakan pekerjaan pengembang AI Dapp.

Masa depan akan menjadi campuran. Sebagian inferensi dilakukan di frontend, sementara sebagian lainnya dihitung di on-chain, ini dapat mempertimbangkan faktor biaya dan verifikasi.

Sumber: IOSG

Pendahuluan

Kombinasi Web3 dan AI adalah topik yang paling menarik perhatian dalam bidang enkripsi saat ini. Para pengembang berbakat sedang membangun infrastruktur AI untuk dunia enkripsi, dengan tujuan membawa kecerdasan ke dalam Smart Contract. Membangun AI Dapp adalah tugas yang sangat kompleks, dengan cakupan yang mencakup data, model, daya komputasi, operasi, implementasi, dan integrasi dengan blockchain.

Untuk kebutuhan-kebutuhan ini, para pendiri Web3 telah mengembangkan banyak solusi awal, seperti jaringan GPU, penandaan data komunitas, model pelatihan komunitas, inferensi AI yang dapat diverifikasi dan dilatih, serta toko agen. Namun, di tengah latar belakang infrastruktur yang makmur ini, pemanfaatan praktis dari AI atau aplikasi yang dibangun untuk AI tidak begitu banyak.

Pengembang menemukan bahwa tutorial pengembangan AI Dapp yang terkait dengan infrastruktur dasar enkripsi AI asli tidak begitu banyak saat mencari tutorial pengembangan AI Dapp, kebanyakan tutorial hanya mencakup panggilan API OpenAI di frontend.

Sumber: IOSG Ventures

Aplikasi saat ini belum sepenuhnya memanfaatkan kegunaan Desentralisasi dan verifikasi blockchain, namun situasi ini akan segera berubah. Saat ini, sebagian besar infrastruktur kecerdasan buatan yang berfokus pada enkripsi telah meluncurkan jaringan uji coba dan berencana untuk beroperasi secara resmi dalam 6 bulan ke depan. Penelitian ini akan membahas secara rinci alat utama yang tersedia dalam infrastruktur kecerdasan buatan di bidang enkripsi. Mari kita siap untuk menyambut era GPT-3.5 di dunia enkripsi!

  1. RedPill: Memberikan otorisasi Desentralisasi untuk OpenAI

RedPill yang kami investasikan adalah titik awal yang bagus yang telah disebutkan sebelumnya. OpenAI memiliki beberapa model yang kuat dan canggih seperti GPT-4-vision, GPT-4-turbo, dan GPT-4o, yang merupakan pilihan terbaik untuk membangun Dapp kecerdasan buatan yang canggih. Pengembang dapat mengintegrasikannya ke dalam Dapp melalui Mesin Oracle atau antarmuka frontend dengan memanggil API OpenAI.

RedPill akan mengintegrasikan API OpenAI dari pengembang yang berbeda di bawah antarmuka tunggal, menyediakan layanan kecerdasan buatan yang cepat, ekonomis, dan dapat diverifikasi untuk pengguna global, sehingga mewujudkan demokratisasi sumber daya model kecerdasan buatan papan atas. Algoritme rute RedPill akan mengarahkan permintaan pengembang ke kontributor tunggal. Permintaan API akan dieksekusi melalui jaringan distribusi mereka, menghindari batasan potensial dari OpenAI, dan mengatasi beberapa masalah umum yang dihadapi pengembang, seperti enkripsi.

• Batas TPM (Token Per Menit): Penggunaan Token oleh akun baru terbatas dan tidak dapat memenuhi kebutuhan Dapp yang populer dan bergantung pada AI.

• Pembatasan Akses: Beberapa model memiliki pembatasan akses untuk akun baru atau negara tertentu.

Dengan menggunakan kode permintaan yang sama tetapi mengganti nama host, pengembang dapat mengakses model OpenAI dengan biaya rendah, skalabilitas tinggi, dan tanpa batasan.

  1. Jaringan GPU

Selain menggunakan API OpenAI, banyak pengembang juga memilih untuk mengelola model secara mandiri di rumah. Mereka dapat mengandalkan jaringan GPU Desentralisasi seperti io.net, Aethir, Akash, dan jaringan populer lainnya untuk membangun dan menjalankan kluster GPU sendiri serta untuk mendeploy dan menjalankan berbagai model internal yang kuat atau yang terbuka sumbernya.

Jaringan GPU Desentralisasi semacam itu memanfaatkan kekuatan komputasi pusat data pribadi atau kecil untuk menyediakan konfigurasi yang fleksibel, lebih banyak opsi lokasi server, dan biaya lebih rendah, sehingga memudahkan pengembang untuk bereksperimen dengan AI dengan anggaran terbatas. Namun, karena sifat Desentralisasi, jaringan GPU tersebut memiliki keterbatasan tertentu dalam hal fungsionalitas, kegunaan, dan privasi data.

Selama beberapa bulan terakhir, permintaan untuk GPU sangat tinggi dan melebihi tren penambangan BTCPenambangan sebelumnya. Fenomena ini disebabkan oleh:

Jumlah pelanggan yang dituju semakin banyak, jaringan GPU saat ini melayani pengembang kecerdasan buatan (AI), yang tidak hanya jumlahnya besar tetapi juga setia, dan tidak akan terpengaruh oleh fluktuasi harga Aset Kripto.

Dibandingkan dengan perangkat khusus Penambangan, GPU Desentralisasi menawarkan lebih banyak model dan spesifikasi, lebih dapat memenuhi persyaratan. Terutama untuk pemrosesan model besar yang memerlukan VRAM yang lebih tinggi, sementara tugas kecil memiliki pilihan GPU yang lebih sesuai. Selain itu, GPU Desentralisasi dapat melayani pengguna akhir dengan latensi rendah.

Teknologi semakin matang, jaringan GPU bergantung pada Blok cepat seperti Solana Pembayaran, teknologi virtualisasi Docker, dan klaster komputasi Ray.

Dalam hal pengembalian investasi, pasar AI sedang berkembang dengan banyak peluang pengembangan aplikasi dan model baru. Tingkat pengembalian yang diharapkan dari model H100 adalah 60-70%, sementara Penambangan Bitcoin lebih kompleks dengan hasil terbatas dan hanya dimenangkan oleh pemenang.

Perusahaan BTCPenambangan seperti Iris Energy, Core Scientific, dan Bitdeer juga mulai mendukung jaringan GPU, menyediakan layanan AI, dan aktif membeli GPU yang dirancang khusus untuk AI, seperti H100.

Rekomendasi: Bagi pengembang Web2 yang tidak terlalu memperhatikan SLA, io.net menyediakan pengalaman yang sederhana dan mudah digunakan, dan merupakan pilihan dengan nilai yang sangat baik.

Ini adalah inti dari infrastruktur AI enkripsi yang asli. Ini akan mendukung miliaran operasi inferensi AI di masa depan. Banyak lapisan AI layer1 atau layer2 menyediakan kemampuan pemanggilan inferensi AI yang asli di on-chain untuk pengembang. Para pemimpin pasar termasuk Ritual, Valence, dan Fetch.ai.

Jaringan-jaringan ini memiliki perbedaan dalam hal berikut: kinerja (latensi, waktu komputasi), model yang didukung, verifikasi, harga (biaya on-chain, biaya inferensi), dan pengalaman pengembangan.

3.1 Tujuan

Idealnya, pengembang dapat dengan mudah mengakses layanan Inferensi AI yang disesuaikan mereka di mana saja, melalui berbagai bentuk verifikasi, tanpa hambatan yang signifikan. Jaringan Inferensi menyediakan semua dukungan dasar yang dibutuhkan pengembang, termasuk pembangkitan sesuai permintaan dan proof of validarion, komputasi inferensi, Relay dan verifikasi data, penyediaan antarmuka Web2 dan Web3, implementasi model satu kali klik, pemantauan sistem, operasi Cross-Chain Interaksi, integrasi sinkron, dan eksekusi berjadwal.

Dengan fitur ini, pengembang dapat mengintegrasikan layanan inferensi ke dalam Smart Contract yang ada. Misalnya, saat membangun robot perdagangan Keuangan Desentralisasi, robot ini akan menggunakan model pembelajaran mesin untuk mencari waktu beli dan jual pasangan perdagangan tertentu, dan menjalankan strategi perdagangan yang sesuai di platform perdagangan dasar.

Dalam keadaan yang sepenuhnya ideal, semua infrastruktur dihosting di cloud. Pengembang hanya perlu mengunggah model strategi perdagangan mereka dalam format umum seperti torch, dan jaringan inferensi akan menyimpan dan menyediakan model untuk kueri Web2 dan Web3.

Setelah semua langkah implementasi model selesai, pengembang dapat langsung menggunakan Web3 API atau panggilan Smart Contract untuk menelekan model. Jaringan penelekan akan terus menjalankan strategi perdagangan ini dan memberikan hasilnya kembali ke Smart Contract dasar. Jika jumlah dana komunitas yang dikelola oleh pengembang besar, verifikasi hasil penelekan juga diperlukan. Begitu hasil penelekan diterima, Smart Contract akan melakukan perdagangan berdasarkan hasil tersebut.

3.1.1 Asynchronous dan Synchronous

Secara teoritis, operasi penalaran yang berjalan secara asinkron dapat memberikan kinerja yang lebih baik; namun, cara ini mungkin terasa kurang nyaman dalam pengalaman pengembangan. Saat menggunakan pendekatan asinkron, pengembang perlu mengirimkan tugas ke dalam smart contract jaringan penalaran. Setelah tugas penalaran selesai, Smart Contract jaringan penalaran akan mengembalikan hasilnya. Dalam pola pemrograman ini, logika dibagi menjadi dua bagian: pemanggilan penalaran dan penanganan hasil penalaran.

Jika pengembang memiliki panggilan inferensi bertingkat dan banyak logika kontrol, situasinya akan menjadi lebih buruk.

Mode pemrograman asinkron membuatnya sulit untuk diintegrasikan dengan Smart Contract yang ada. Ini membutuhkan pengembang untuk menulis banyak kode tambahan dan mengelola error serta ketergantungan. Sebaliknya, pemrograman sinkron lebih intuitif bagi pengembang, tetapi ini menghadirkan masalah dalam waktu respons dan desain Blok. Misalnya, jika data input adalah waktu Blok atau data yang berfluktuasi cepat seperti harga, maka setelah proses inferensi selesai, data tersebut tidak lagi segar, yang dapat mengakibatkan perlu dilakukannya Rollback pada eksekusi Smart Contract dalam kasus-kasus tertentu. Bayangkan jika Anda melakukan transaksi dengan harga yang sudah kadaluarsa.

Sebagian besar infrastruktur dasar AI menggunakan pemrosesan asinkron, tetapi Valence mencoba mengatasi masalah ini.

3.2 Situasi yang nyata

Sebenarnya, banyak jaringan inferensi baru masih dalam tahap pengujian, seperti jaringan Ritual. Menurut dokumen publik mereka, fitur-fitur jaringan ini saat ini masih terbatas (seperti verifikasi, bukti, dll belum diluncurkan). Mereka saat ini tidak menyediakan infrastruktur cloud untuk mendukung perhitungan AI on-chain, tetapi mereka menyediakan kerangka kerja untuk mengelola sendiri perhitungan AI dan mengirimkan hasilnya ke on-chain. Ini adalah arsitektur yang menjalankan token non-fungible AIGC. Model difusi menghasilkan token non-fungible dan mengunggahnya ke Arweave. Jaringan inferensi akan mencetak token non-fungible ini di on-chain menggunakan alamat Arweave ini.

Proses ini sangat kompleks, pengembang perlu mendeploy dan memelihara sebagian besar infrastruktur sendiri, seperti Ritual Node dengan logika layanan kustom, Stable Diffusion Node, dan Kontrak Pintar Token Non-fungible. Rekomendasi: Jaringan reasoning saat ini cukup kompleks dalam mengintegrasikan dan mendeploy model kustom, dan pada tahap ini sebagian besar jaringan belum mendukung fungsi verifikasi. Mengaplikasikan teknologi AI ke frontend akan memberikan pilihan yang relatif lebih sederhana bagi para pengembang. Jika Anda sangat memerlukan fungsi verifikasi, penyedia ZKML Giza adalah pilihan yang bagus.

  1. Jaringan Agen

Jaringan agen memungkinkan pengguna untuk dengan mudah menyesuaikan agen. Jaringan ini terdiri dari entitas atau Smart Contract yang mampu mengeksekusi tugas secara mandiri, saling berinteraksi dengan cloud, dan berinteraksi dengan jaringan Blockchain, semuanya tanpa intervensi langsung dari manusia. Ini terutama ditujukan untuk teknologi LLM. Misalnya, itu dapat menyediakan pemahaman mendalam tentang Ethereum melalui chatbot GPT. Mesin obrolan semacam ini saat ini memiliki keterbatasan alat, pengembang masih belum dapat mengembangkan aplikasi kompleks berdasarkan hal ini.

Namun di masa depan, jaringan agen akan menyediakan lebih banyak alat bagi agen untuk digunakan, tidak hanya pengetahuan, tetapi juga kemampuan untuk memanggil API eksternal, melakukan tugas-tugas tertentu, dll. Pengembang akan dapat menghubungkan beberapa agen untuk membangun alur kerja. Misalnya, menulis kontrak pintar Solidity melibatkan beberapa agen khusus, termasuk agen desain protokol, agen pengembangan Solidity, agen pemeriksaan keamanan kode, dan agen implementasi Solidity.

Kami mengkoordinasikan kerja sama agen-agen ini dengan menggunakan petunjuk dan skenario. Beberapa contoh jaringan agen termasuk Flock.ai, Myshell, Theoriq. Rekomendasi: Sebagian besar agen saat ini memiliki fungsi yang terbatas. Untuk kasus-kasus tertentu, agen Web2 dapat melayani lebih baik dan dilengkapi dengan alat kompilasi yang matang seperti Langchain, Llamaindex.

Perbedaan antara Jaringan Agen dan Jaringan Penalaran 5

Jaringan agen lebih berfokus pada LLM, menyediakan alat seperti Langchain untuk mengintegrasikan beberapa agen. Biasanya, pengembang tidak perlu mengembangkan model pembelajaran mesin sendiri, jaringan agen telah menyederhanakan proses pengembangan dan implementasi model. Mereka hanya perlu menghubungkan agen dan alat yang diperlukan. Dalam kebanyakan kasus, pengguna akhir akan langsung menggunakan agen ini.

Jaringan inferensi adalah infrastruktur dukungan bagi jaringan agen. Ini memberikan akses tingkat yang lebih rendah kepada pengembang. Biasanya, pengguna akhir tidak menggunakan jaringan inferensi secara langsung. Pengembang perlu mendeploy model mereka sendiri, bukan hanya terbatas pada LLM, dan mereka dapat mengaksesnya melalui titik off-chain atau on-chain. Jaringan agen dan jaringan inferensi bukanlah produk yang benar-benar independen. Kita sudah mulai melihat beberapa produk integrasi vertikal. Karena ketergantungan fungsi kedua jenis ini terhadap infrastruktur yang serupa, mereka secara bersamaan menyediakan kemampuan agen dan inferensi.

  1. Tempat Peluang Baru Selain inferensi model, pelatihan, dan jaringan agen, ada banyak bidang baru yang layak dieksplorasi di ruang web3:

Dataset: Bagaimana Mengubah Data Blokchain Menjadi Dataset yang Dapat Digunakan untuk Pembelajaran Mesin? Pengembang pembelajaran mesin membutuhkan data yang lebih spesifik dan khusus. Misalnya, Giza menyediakan beberapa dataset berkualitas tinggi tentang Keuangan Desentralisasi yang khusus digunakan untuk pelatihan pembelajaran mesin. Data yang ideal tidak hanya berupa data tabel sederhana, tetapi juga harus mencakup data grafik yang dapat menggambarkan interaksi dunia blokchain. Saat ini, kami masih kurang dalam hal ini. Beberapa proyek saat ini mencoba mengatasi masalah ini dengan memberikan insentif kepada individu untuk membuat dataset baru, seperti Bagel dan Sahara, yang berjanji melindungi privasi data pribadi.

Penyimpanan Model: Beberapa model memiliki ukuran yang besar, bagaimana cara menyimpan, mendistribusikan, dan mengontrol versi model tersebut adalah kunci dalam kinerja dan biaya pembelajaran mesin on-chain. Di bidang ini, proyek-proyek yang inovatif seperti FIL, AR, dan 0g telah membuat kemajuan.

Pelatihan Model: Pelatihan model yang terdistribusi dan dapat diverifikasi merupakan tantangan yang sulit. Gensyn, Bittensor, Flock, dan Allora telah membuat kemajuan signifikan. Pemantauan: Karena inferensi model terjadi baik on-chain maupun off-chain, kita memerlukan infrastruktur baru untuk membantu pengembang web3 melacak penggunaan model, serta mendeteksi masalah dan bias yang mungkin ada. Dengan alat pemantauan yang sesuai, pengembang machine learning web3 dapat menyesuaikan dengan cepat dan terus mengoptimalkan akurasi model.

Infrastruktur RAG: Distribusi RAG membutuhkan lingkungan infrastruktur yang baru, dengan permintaan tinggi untuk penyimpanan, komputasi terbenam, dan basis data vektor, sambil memastikan keamanan privasi data. Ini berbeda dengan infrastruktur kecerdasan buatan Web3 saat ini, yang sebagian besar bergantung pada pihak ketiga untuk menyelesaikan RAG, seperti Firstbatch dan Bagel.

Model yang disesuaikan khusus untuk Web3: Tidak semua model cocok untuk situasi Web3. Dalam kebanyakan kasus, perlu untuk melatih ulang model untuk memenuhi aplikasi khusus seperti prediksi harga, rekomendasi, dll. Dengan perkembangan infrastruktur AI yang pesat, di masa depan kami mengharapkan lebih banyak model lokal web3 untuk melayani aplikasi AI. Misalnya, Pond saat ini mengembangkan GNN blockchain untuk prediksi harga, rekomendasi, deteksi penipuan, dan pencucian uang dalam berbagai skenario.

Evaluasi Jaringan: Menilai agen tanpa umpan balik manusia tidaklah mudah. Dengan penyebaran alat pembuatan agen, akan muncul banyak agen di pasar. Oleh karena itu, diperlukan sistem untuk menunjukkan kemampuan agen-agen ini dan membantu pengguna menentukan agen mana yang tampil terbaik dalam situasi tertentu. Misalnya, Neuronets adalah salah satu peserta di bidang ini.

Mekanisme Konsensus: Untuk tugas AI, PoS tidak selalu menjadi pilihan terbaik. Kompleksitas komputasi, kesulitan verifikasi, dan kekurangan determinasi adalah tantangan utama yang dihadapi PoS. Bittensor telah menciptakan Mekanisme Konsensus baru yang cerdas, yang memberikan imbalan kepada Node yang berkontribusi pada model pembelajaran mesin dan output dalam jaringan.

  1. Prospek di Masa Depan

Kami saat ini melihat tren pengembangan integrasi vertikal. Dengan membangun lapisan komputasi dasar, jaringan dapat mendukung berbagai tugas pembelajaran mesin, termasuk pelatihan, inferensi, dan layanan jaringan agen. Pola ini bertujuan untuk menyediakan solusi all-in-one yang komprehensif bagi pengembang pembelajaran mesin Web3. Saat ini, meskipun inferensi on-chain mahal dan lambat, namun menyediakan verifikasi yang luar biasa dan integrasi yang lancar dengan sistem backend (misalnya, smart contract). Saya berpikir bahwa di masa depan akan menuju ke aplikasi hibrida. Sebagian inferensi akan diproses di frontend atau off-chain, sementara inferensi yang krusial dan penentu akan diselesaikan on-chain. Pola ini sudah digunakan pada perangkat seluler. Dengan memanfaatkan karakteristik alami perangkat seluler, ia dapat menjalankan model-model kecil dengan cepat secara lokal dan memindahkan tugas yang lebih kompleks ke cloud dengan memanfaatkan daya pemrosesan yang lebih besar.

Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)