Ringkasan inti: Melatih model besar memerlukan pembangunan atau peningkatan pusat data. Tetapi infrastruktur terpusat sekarang menghadapi batasan fisik yang sulit. Untuk meningkatkan kemampuan infrastruktur, AI digunakan untuk menciptakan skala yang lebih besar dan output cerdas. Namun, kontrol atas tingkat hash menjadi simpul kekuatan utama dalam industri AI. Pada saat ini, Gonka muncul. Protokol Gonka adalah jaringan global tanpa izin yang dapat diikuti siapa saja, meminta perutean terprogram antara peserta terdistribusi. Dalam percakapan eksklusif dengan Analytics Insight, Anastasia Matveeva, salah satu pendiri dan manajer produk senior di Gonka, membahas bagaimana mereka berinovasi dalam bagaimana daya komputasi diperoleh untuk membangun ekosistem AI yang lebih terkontrol dan aman.
T: Diskusi publik tentang AI sebagian besar difokuskan pada sentralisasi model, tetapi kurang perhatian diberikan pada sentralisasi daya komputasi. Mengapa kontrol atas daya komputasi menjadi simpul daya utama dalam industri AI? Risiko apa yang ditimbulkan oleh konsentrasi ini terhadap inovasi dan pasar secara keseluruhan?
J: Diskusi publik cenderung berfokus pada model karena model terlihat. Tetapi inti sebenarnya dari kekuatan terletak pada tingkat yang lebih rendah – daya komputasi, yang merupakan lapisan dasar yang menentukan siapa yang dapat membangun, menerapkan, dan menskalakan sistem AI.
Alasan mengapa kontrol daya komputasi menjadi penting adalah karena alasan ekonomi dan fisik. Hambatan utama AI modern bukan lagi algoritme, tetapi kemampuan untuk mengakses GPU, daya, dan kapasitas pusat data.
Melatih model besar semakin membutuhkan pembangunan atau peningkatan pusat data. Namun, infrastruktur terpusat mencapai batas fisik: kepadatan energi, kendala termal, dan kapasitas catu daya maksimum yang dapat dibawa oleh satu lokasi. Industri ini bereksperimen dengan solusi ekstrem – mendesain ulang chip, sistem pendingin, dan sumber energi baru.
Konsentrasi ini memiliki konsekuensi sistemik.
Pertama, ini menetapkan hambatan struktural untuk inovasi. Akuisisi daya komputasi telah menjadi hak istimewa infrastruktur daripada kompetisi berbasis kompetensi. Tim kecil, peneliti independen, dan bahkan seluruh wilayah dikecualikan dari harga, ruang eksperimental menyusut, dan inovasi cenderung konservatif.
Kedua, sentralisasi daya komputasi mengkonsolidasikan model “ekstraksi sewa”. AI memiliki potensi untuk menciptakan “kelimpahan” – kecerdasan secara inheren dapat direplikasi – tetapi kelimpahan ini ditekan secara artifisial ketika infrastruktur yang mendasarinya langka dan terkendali. Pasar telah bergeser ke daya berbasis langganan, penguncian, dan penetapan harga daripada pengurangan biaya dan aksesibilitas yang luas.
Ketiga, membawa kerentanan sistemik. Ketika daya komputasi canggih terkonsentrasi di beberapa operator dan lokasi geografis, gangguan peraturan, politik, atau fisik dapat beriak di seluruh ekosistem AI. Dependensi menjadi struktural, bukan opsional.
Lebih penting lagi, daya komputasi tidak netral. Siapa pun yang mengontrol daya komputasi secara implisit menentukan apa yang layak, diizinkan, dan berkelanjutan secara ekonomi. Ketika kontrol ini terpusat, tata kelola AI akan dibentuk secara default, bukan dengan desain.
Risikonya bukan hanya monopoli, tetapi distorsi jangka panjang dari lintasan AI: lebih sedikit pembangun, keragaman aplikasi yang lebih rendah, inovasi perangkat keras yang lebih lambat, dan infrastruktur yang tidak dapat menandingi ambisi model generasi berikutnya.
Oleh karena itu, daya komputasi harus dianggap sebagai infrastruktur dasar – arsitektur yang dapat menskalakan secara ekonomi dan fisik sangat penting untuk masa depan AI.
T: Banyak platform daya komputasi AI – baik terpusat atau terdesentralisasi – mengklaim efisien. Metrik apa yang benar-benar penting saat mengevaluasi efisiensi sistem daya komputasi AI? Dengan cara apa model-model ini sering menghadapi keterbatasan praktis?
A: Efisiensi daya komputasi sering digunakan sebagai konsep pemasaran. Faktanya, hanya ada beberapa metrik spesifik yang benar-benar penting, yang mencakup kinerja sisi pengguna, efisiensi operasional penyedia, dan struktur insentif yang mengatur keduanya.
Bagi pengguna, efisiensi berarti transparansi kecepatan dan biaya.
Kecepatan mengacu pada latensi di bawah permintaan nyata. Hub terpusat seringkali memiliki keuntungan karena kolokasi fisik. Namun, jika blockchain hanya bertindak sebagai lapisan keamanan dan tidak berpartisipasi dalam jalur eksekusi waktu nyata, arsitektur terdesentralisasi dapat mencapai kinerja yang serupa. Selama permintaan tetap diproses di luar rantai, protokol itu sendiri tidak menambah latensi.
Transparansi biaya juga merupakan kuncinya. Meskipun “biaya per token” adalah KPI umum, integritas model seringkali kurang transparan. Dalam lingkungan terpusat, produk bisa berupa kotak hitam. Selama periode puncak, penyedia dapat menyesuaikan konfigurasi model untuk mempertahankan keuntungan, dan perubahan ini seringkali tidak terlihat tetapi dapat memengaruhi kualitas output. Efisiensi sejati membutuhkan penetapan harga untuk mencerminkan akurasi perhitungan yang konsisten.
Bagi penyedia, efisiensi adalah keseimbangan antara pemanfaatan GPU dan ketahanan.
Operator terpusat unggul dalam pemanfaatan, dengan GPU berjalan pada kapasitas hampir penuh di lingkungan yang berlokasi bersama, tetapi mereka kurang elastisitas dan menanggung biaya menganggur selama palung permintaan.
Jaringan terdesentralisasi mengorbankan pemanfaatan sampai batas tertentu dengan imbalan ketahanan, tetapi harus meminimalkan overhead konsensus dan validasi sehingga daya komputasi dapat dialokasikan kembali di berbagai beban kerja sesuai kebutuhan.
Yang paling penting adalah desain insentif.
Pengoptimalan menjadi struktural ketika manfaat dikaitkan dengan beban kerja AI yang lebih cepat, lebih murah, dan dapat diverifikasi. Peserta diberi insentif untuk meningkatkan efisiensi perangkat keras, mengurangi latensi, dan bereksperimen dengan chip khusus.
Sebaliknya, jika bobot imbalan atau tata kelola terutama terkait dengan kepemilikan modal, arah optimasi akan menyimpang dari kinerja infrastruktur dan inefisiensi akan dipadatkan.
Di Gonka, efisiensi tertanam dalam lapisan protokol: hampir 100% dari tingkat hash digunakan untuk beban kerja AI nyata, terutama inferensi. Bobot pendapatan dan tata kelola didasarkan pada kontribusi hashrate yang diukur, bukan kepemilikan modal.
Efisiensi sejati hanya terjadi ketika sebagian besar kekuatan hash digunakan untuk tugas nyata, insentif dihargai untuk kontribusi terverifikasi, dan overhead internal tidak tumbuh tak terkendali dengan skala jaringan.
T: Apakah mungkin jaringan daya komputasi AI terdesentralisasi memungkinkan sebagian besar daya komputasi digunakan untuk beban kerja AI nyata daripada memelihara jaringan itu sendiri? Apa pilihan arsitektur utama?
J: Itu mungkin – tetapi hanya jika overhead dipandang sebagai kendala arsitektur inti daripada produk sampingan yang tak terelakkan dari desentralisasi.
Sebagian besar jaringan komputasi terdesentralisasi mencurahkan sumber daya yang signifikan untuk mempertahankan konsensus dan keamanan, bukan beban kerja AI. Hal ini dikarenakan pekerjaan produktif dipisahkan dari mekanisme keselamatan, yang mengarah pada penghitungan ganda.
Untuk mencapai sebagian besar daya komputasi untuk tugas AI dunia nyata, diperlukan beberapa prinsip utama:
Pertama, mekanisme keselamatan dan pengukuran harus “terikat waktu” dan tidak terus menerus. Mekanisme pembuktian harus fokus pada periode jangka pendek yang eksplisit daripada mengkonsumsi sumber daya secara terus menerus. Di Gonka, ini dicapai melalui sprint (periode terstruktur dan terikat waktu). Di luar siklus, sumber daya perangkat keras tersedia untuk beban kerja AI dunia nyata.
Kedua, kurangi duplikasi dengan menyesuaikan validasi secara dinamis dengan selektivitas dan reputasi, daripada mereplikasi setiap tugas sepenuhnya. Pekerjaan peserta baru dapat diverifikasi 100%; Saat reputasi ditetapkan, rasio verifikasi dapat dikurangi menjadi sekitar 1%. Proporsi daya komputasi terverifikasi keseluruhan dapat dikontrol di bawah sekitar 10% sambil menjaga keamanan.
Peserta yang mencoba menyontek tidak diberi imbalan, sehingga kecurangan menjadi tidak dapat dibenarkan secara finansial.
Ketiga, bobot hadiah dan tata kelola harus dikaitkan dengan kontribusi hashrate yang terbukti, bukan kepemilikan modal.
Ketika konsensus ringan, validasi adaptif, dan insentif selaras dengan komputasi produktif, daya komputasi terdesentralisasi benar-benar dapat melayani beban kerja dunia nyata.
T: Jaringan daya komputasi AI terdesentralisasi sering menekankan partisipasi terbuka, tetapi persyaratan infrastruktur dapat menciptakan hambatan masuk yang tinggi. Bagaimana sistem seperti itu dapat diskalakan sambil tetap mempertahankan aksesibilitas bagi peserta dengan berbagai tingkat hashrate?
J: Sementara jaringan terdesentralisasi bertujuan untuk menurunkan hambatan masuk untuk infrastruktur AI, kelangsungan hidup jangka panjang sama-sama membutuhkan persaingan dengan penyedia terpusat dan memenuhi permintaan dunia nyata. Kendala perangkat keras pada akhirnya bermuara pada persyaratan inti: mampu membawa model yang benar-benar diminati.
Untuk menskalakan sambil mempertahankan aksesibilitas, beberapa prinsip sangat penting.
Pertama, akses infrastruktur tanpa izin. Setiap pemilik GPU—baik operator alat tunggal atau pusat data besar—harus dapat bergabung dengan jaringan tanpa proses persetujuan atau penjaga gerbang terpusat. Ini menghilangkan hambatan struktural untuk masuk.
Kedua, ini didasarkan pada imbalan proporsional dan pengaruh daya komputasi yang terbukti. Dalam model berdasarkan bobot daya komputasi, kontribusi komputasi yang lebih tinggi secara alami mengarah pada lebih banyak pembagian tugas, pembagian hadiah, dan bobot tata kelola. Ini tidak membuat pemain kecil benar-benar sama dengan pemain besar – juga tidak seharusnya. Kuncinya terletak pada kesatuan aturan: pengaruh ditentukan oleh kontribusi yang dihitung secara aktual, bukan oleh modal, mekanisme mandat, atau leverage keuangan.
Ketiga, peran kumpulan daya komputasi. Dalam sistem dengan persyaratan infrastruktur aktual, agregasi sumber daya terjadi secara alami. Kumpulan daya komputasi memungkinkan peserta yang lebih kecil untuk mengumpulkan sumber daya, mengurangi volatilitas, dan berpartisipasi dalam beban kerja yang lebih besar.
Namun, arsitektur harus menghindari pemberian keuntungan struktural kepada kumpulan hash besar atau konsentrasi pengaruh insentif yang berlebihan. Kumpulan daya komputasi harus ada sebagai alat koordinasi, bukan sebagai mekanisme yang diresentralisasi.
Pada akhirnya, skala jaringan daya komputasi AI yang terdesentralisasi seharusnya tidak berarti meningkatkan penghalang masuk. Ini berarti meningkatkan kapasitas komputasi secara keseluruhan sambil mempertahankan nilai ekonomi nyata yang diciptakan jaringan bagi pengguna sambil mempertahankan netralitas, transparansi, dan aturan partisipasi yang konsisten. Akses terbuka, ekonomi proporsional, dan konsentrasi terkendali menentukan apakah suatu sistem tetap terdesentralisasi seiring pertumbuhannya.
T: Mengapa masalah daya komputasi AI terdesentralisasi begitu mendesak saat ini? Jika masalah ini tidak ditangani dalam beberapa tahun ke depan, menurut Anda apa konsekuensi jangka panjang bagi industri ini?
J: Urgensi ini mencerminkan pergeseran AI dari eksperimental ke infrastruktur.
Seperti disebutkan sebelumnya, daya komputasi telah menjadi hambatan fisik. Skalabilitas semakin dibatasi tidak hanya oleh modal, tetapi juga oleh energi, kepadatan daya, dan kendala pusat data. Pada saat yang sama, akses ke GPU canggih dan infrastruktur hyperscale dipengaruhi oleh kontrak jangka panjang, sentralisasi perusahaan, dan prioritas strategis nasional.
Kombinasi ini memperdalam asimetri struktural. Mereka yang mengendalikan infrastruktur skala besar terus mengkonsolidasikan kekuatan mereka, sementara hambatan masuk untuk tim kecil dan wilayah berkembang terus meningkat. Risikonya bukan hanya konsentrasi pasar, tetapi juga melebarnya kesenjangan daya komputasi global.
Jika tren ini terus berlanjut, inovasi akan lebih bergantung pada akses infrastruktur daripada ide itu sendiri. Pasar AI kemungkinan akan memantapkan menjadi model berbasis sewa di mana kecerdasan diakses dalam kondisi yang ditetapkan oleh beberapa penyedia dominan.
Oleh karena itu, daya komputasi terdesentralisasi bukanlah perdebatan ideologis. Ini adalah respons terhadap kendala struktural yang terlihat – dan opsi yang akan membentuk arsitektur jangka panjang industri AI.
T: Agen AI semakin mandiri memesan sumber daya GPU. Bagaimana arsitektur Gonka memungkinkan integrasi tanpa batas dari ekonomi komputasi AI yang mengatur sendiri?
J: Munculnya AI beragen berarti bahwa sistem semakin membuat keputusan otonom – termasuk memperoleh sumber daya komputasi. Dalam model ini, daya komputasi menjadi aset inti dalam interaksi ekonomi antar agen.
Ekosistem semacam itu membutuhkan akses terprogram, ekonomi transparan, dan keandalan.
Pertama, integrasi harus mulus. Gonka menyediakan API yang kompatibel dengan OpenAI, memungkinkan sebagian besar agen AI untuk mengakses tanpa mengubah arsitektur atau alur kerja mereka.
Kedua, ekonomi daya komputasi harus transparan dan digerakkan oleh sistem. Harga disesuaikan secara dinamis berdasarkan beban jaringan daripada tetap melalui kontrak. Pada tahap awal jaringan, biaya inferensi dirancang secara signifikan lebih rendah daripada penyedia terpusat, karena peserta diberi kompensasi tidak hanya melalui biaya pengguna tetapi juga melalui hadiah yang mirip dengan mekanisme penerbitan Bitcoin, yang sebanding dengan kapasitas hash yang tersedia.
Struktur ini memungkinkan agen AI yang beroperasi sesuai anggaran untuk melakukan beban kerja secara efisien. Seiring berkembangnya jaringan, parameter penetapan harga akan tetap tunduk pada tata kelola komunitas.
Ketiga, keandalan diperkuat di tingkat protokol. Dalam lingkungan terpusat, keandalan berasal dari sertifikasi dan perjanjian tingkat layanan. Dalam infrastruktur terdesentralisasi, keandalan didukung oleh kode sumber terbuka, audit pihak ketiga, dan bukti terukur on-chain dari penyelesaian komputasi dan kinerja jaringan.
Bersama-sama, elemen-elemen ini memungkinkan agen AI untuk meminta hashrate dan mengalokasikan anggaran dalam kerangka kerja yang transparan. Dengan cara ini, Gonka menyediakan fondasi infrastruktur untuk ekonomi komputasi AI yang mengatur sendiri, memungkinkan agen untuk tidak hanya melakukan tugas tetapi juga secara dinamis mengoptimalkan sumber daya yang mereka andalkan.
T: Ketidakpastian peraturan seputar teknologi terdesentralisasi semakin intensif. Bagaimana Gonka secara proaktif menangani kedaulatan data dan kepatuhan tata kelola AI di pasar global yang terfragmentasi?
J: Dalam konteks daya komputasi terdesentralisasi, tantangan utama terletak pada menyeimbangkan keterbukaan jaringan dengan persyaratan yurisdiksi yang beragam dan berkembang.
Gonka adalah jaringan global tanpa izin – siapa pun dapat bergabung, dan permintaan dirutekan secara terprogram antara peserta terdistribusi. Pada tahap ini, pengguna tidak memiliki kontrol deterministik atas lokasi geografis tempat permintaan mereka diproses. Ini mungkin merupakan batasan saat ini untuk kasus penggunaan dengan residensi data yang ketat atau persyaratan pemrosesan regional.
Namun, dari perspektif privasi, arsitektur ini mengurangi sentralisasi data. Setiap permintaan diproses oleh peserta yang dipilih secara acak dan dirutekan secara independen, mencegah akumulasi riwayat pengguna lengkap. Sejauh ini, model ini telah mencakup sebagian besar kasus penggunaan dunia nyata sambil memungkinkan skala jaringan untuk menskalakan.
Seiring dengan pertumbuhan jaringan dan permintaan pasar menjadi lebih jelas, mekanisme tata kelola memungkinkan peserta untuk mengusulkan dan memberikan suara pada perubahan arsitektur untuk mendukung persyaratan peraturan tertentu. Perubahan ini dapat mencakup: subnet privat dengan kriteria partisipasi tambahan, kendala operasional khusus yurisdiksi, atau jaminan tingkat perangkat keras untuk beban kerja perusahaan, seperti Lingkungan Eksekusi Tepercaya (TEE).
Desentralisasi tidak menghilangkan kewajiban kepatuhan. Apa yang diberikannya adalah fleksibilitas arsitektur. Desain Gonka memungkinkan jaringan untuk berkembang berdasarkan tuntutan peraturan dan pasar, daripada terkunci dalam satu model kepatuhan sejak awal.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Siapa yang menguasai kekuatan komputasi, dia secara diam-diam mengendalikan masa depan AI: Co-founder Gonka Protocol Anastasia
nol
Ringkasan inti: Melatih model besar memerlukan pembangunan atau peningkatan pusat data. Tetapi infrastruktur terpusat sekarang menghadapi batasan fisik yang sulit. Untuk meningkatkan kemampuan infrastruktur, AI digunakan untuk menciptakan skala yang lebih besar dan output cerdas. Namun, kontrol atas tingkat hash menjadi simpul kekuatan utama dalam industri AI. Pada saat ini, Gonka muncul. Protokol Gonka adalah jaringan global tanpa izin yang dapat diikuti siapa saja, meminta perutean terprogram antara peserta terdistribusi. Dalam percakapan eksklusif dengan Analytics Insight, Anastasia Matveeva, salah satu pendiri dan manajer produk senior di Gonka, membahas bagaimana mereka berinovasi dalam bagaimana daya komputasi diperoleh untuk membangun ekosistem AI yang lebih terkontrol dan aman.
T: Diskusi publik tentang AI sebagian besar difokuskan pada sentralisasi model, tetapi kurang perhatian diberikan pada sentralisasi daya komputasi. Mengapa kontrol atas daya komputasi menjadi simpul daya utama dalam industri AI? Risiko apa yang ditimbulkan oleh konsentrasi ini terhadap inovasi dan pasar secara keseluruhan?
J: Diskusi publik cenderung berfokus pada model karena model terlihat. Tetapi inti sebenarnya dari kekuatan terletak pada tingkat yang lebih rendah – daya komputasi, yang merupakan lapisan dasar yang menentukan siapa yang dapat membangun, menerapkan, dan menskalakan sistem AI.
Alasan mengapa kontrol daya komputasi menjadi penting adalah karena alasan ekonomi dan fisik. Hambatan utama AI modern bukan lagi algoritme, tetapi kemampuan untuk mengakses GPU, daya, dan kapasitas pusat data.
Melatih model besar semakin membutuhkan pembangunan atau peningkatan pusat data. Namun, infrastruktur terpusat mencapai batas fisik: kepadatan energi, kendala termal, dan kapasitas catu daya maksimum yang dapat dibawa oleh satu lokasi. Industri ini bereksperimen dengan solusi ekstrem – mendesain ulang chip, sistem pendingin, dan sumber energi baru.
Konsentrasi ini memiliki konsekuensi sistemik.
Pertama, ini menetapkan hambatan struktural untuk inovasi. Akuisisi daya komputasi telah menjadi hak istimewa infrastruktur daripada kompetisi berbasis kompetensi. Tim kecil, peneliti independen, dan bahkan seluruh wilayah dikecualikan dari harga, ruang eksperimental menyusut, dan inovasi cenderung konservatif.
Kedua, sentralisasi daya komputasi mengkonsolidasikan model “ekstraksi sewa”. AI memiliki potensi untuk menciptakan “kelimpahan” – kecerdasan secara inheren dapat direplikasi – tetapi kelimpahan ini ditekan secara artifisial ketika infrastruktur yang mendasarinya langka dan terkendali. Pasar telah bergeser ke daya berbasis langganan, penguncian, dan penetapan harga daripada pengurangan biaya dan aksesibilitas yang luas.
Ketiga, membawa kerentanan sistemik. Ketika daya komputasi canggih terkonsentrasi di beberapa operator dan lokasi geografis, gangguan peraturan, politik, atau fisik dapat beriak di seluruh ekosistem AI. Dependensi menjadi struktural, bukan opsional.
Lebih penting lagi, daya komputasi tidak netral. Siapa pun yang mengontrol daya komputasi secara implisit menentukan apa yang layak, diizinkan, dan berkelanjutan secara ekonomi. Ketika kontrol ini terpusat, tata kelola AI akan dibentuk secara default, bukan dengan desain.
Risikonya bukan hanya monopoli, tetapi distorsi jangka panjang dari lintasan AI: lebih sedikit pembangun, keragaman aplikasi yang lebih rendah, inovasi perangkat keras yang lebih lambat, dan infrastruktur yang tidak dapat menandingi ambisi model generasi berikutnya.
Oleh karena itu, daya komputasi harus dianggap sebagai infrastruktur dasar – arsitektur yang dapat menskalakan secara ekonomi dan fisik sangat penting untuk masa depan AI.
T: Banyak platform daya komputasi AI – baik terpusat atau terdesentralisasi – mengklaim efisien. Metrik apa yang benar-benar penting saat mengevaluasi efisiensi sistem daya komputasi AI? Dengan cara apa model-model ini sering menghadapi keterbatasan praktis?
A: Efisiensi daya komputasi sering digunakan sebagai konsep pemasaran. Faktanya, hanya ada beberapa metrik spesifik yang benar-benar penting, yang mencakup kinerja sisi pengguna, efisiensi operasional penyedia, dan struktur insentif yang mengatur keduanya.
Bagi pengguna, efisiensi berarti transparansi kecepatan dan biaya.
Kecepatan mengacu pada latensi di bawah permintaan nyata. Hub terpusat seringkali memiliki keuntungan karena kolokasi fisik. Namun, jika blockchain hanya bertindak sebagai lapisan keamanan dan tidak berpartisipasi dalam jalur eksekusi waktu nyata, arsitektur terdesentralisasi dapat mencapai kinerja yang serupa. Selama permintaan tetap diproses di luar rantai, protokol itu sendiri tidak menambah latensi.
Transparansi biaya juga merupakan kuncinya. Meskipun “biaya per token” adalah KPI umum, integritas model seringkali kurang transparan. Dalam lingkungan terpusat, produk bisa berupa kotak hitam. Selama periode puncak, penyedia dapat menyesuaikan konfigurasi model untuk mempertahankan keuntungan, dan perubahan ini seringkali tidak terlihat tetapi dapat memengaruhi kualitas output. Efisiensi sejati membutuhkan penetapan harga untuk mencerminkan akurasi perhitungan yang konsisten.
Bagi penyedia, efisiensi adalah keseimbangan antara pemanfaatan GPU dan ketahanan.
Operator terpusat unggul dalam pemanfaatan, dengan GPU berjalan pada kapasitas hampir penuh di lingkungan yang berlokasi bersama, tetapi mereka kurang elastisitas dan menanggung biaya menganggur selama palung permintaan.
Jaringan terdesentralisasi mengorbankan pemanfaatan sampai batas tertentu dengan imbalan ketahanan, tetapi harus meminimalkan overhead konsensus dan validasi sehingga daya komputasi dapat dialokasikan kembali di berbagai beban kerja sesuai kebutuhan.
Yang paling penting adalah desain insentif.
Pengoptimalan menjadi struktural ketika manfaat dikaitkan dengan beban kerja AI yang lebih cepat, lebih murah, dan dapat diverifikasi. Peserta diberi insentif untuk meningkatkan efisiensi perangkat keras, mengurangi latensi, dan bereksperimen dengan chip khusus.
Sebaliknya, jika bobot imbalan atau tata kelola terutama terkait dengan kepemilikan modal, arah optimasi akan menyimpang dari kinerja infrastruktur dan inefisiensi akan dipadatkan.
Di Gonka, efisiensi tertanam dalam lapisan protokol: hampir 100% dari tingkat hash digunakan untuk beban kerja AI nyata, terutama inferensi. Bobot pendapatan dan tata kelola didasarkan pada kontribusi hashrate yang diukur, bukan kepemilikan modal.
Efisiensi sejati hanya terjadi ketika sebagian besar kekuatan hash digunakan untuk tugas nyata, insentif dihargai untuk kontribusi terverifikasi, dan overhead internal tidak tumbuh tak terkendali dengan skala jaringan.
T: Apakah mungkin jaringan daya komputasi AI terdesentralisasi memungkinkan sebagian besar daya komputasi digunakan untuk beban kerja AI nyata daripada memelihara jaringan itu sendiri? Apa pilihan arsitektur utama?
J: Itu mungkin – tetapi hanya jika overhead dipandang sebagai kendala arsitektur inti daripada produk sampingan yang tak terelakkan dari desentralisasi.
Sebagian besar jaringan komputasi terdesentralisasi mencurahkan sumber daya yang signifikan untuk mempertahankan konsensus dan keamanan, bukan beban kerja AI. Hal ini dikarenakan pekerjaan produktif dipisahkan dari mekanisme keselamatan, yang mengarah pada penghitungan ganda.
Untuk mencapai sebagian besar daya komputasi untuk tugas AI dunia nyata, diperlukan beberapa prinsip utama:
Pertama, mekanisme keselamatan dan pengukuran harus “terikat waktu” dan tidak terus menerus. Mekanisme pembuktian harus fokus pada periode jangka pendek yang eksplisit daripada mengkonsumsi sumber daya secara terus menerus. Di Gonka, ini dicapai melalui sprint (periode terstruktur dan terikat waktu). Di luar siklus, sumber daya perangkat keras tersedia untuk beban kerja AI dunia nyata.
Kedua, kurangi duplikasi dengan menyesuaikan validasi secara dinamis dengan selektivitas dan reputasi, daripada mereplikasi setiap tugas sepenuhnya. Pekerjaan peserta baru dapat diverifikasi 100%; Saat reputasi ditetapkan, rasio verifikasi dapat dikurangi menjadi sekitar 1%. Proporsi daya komputasi terverifikasi keseluruhan dapat dikontrol di bawah sekitar 10% sambil menjaga keamanan.
Peserta yang mencoba menyontek tidak diberi imbalan, sehingga kecurangan menjadi tidak dapat dibenarkan secara finansial.
Ketiga, bobot hadiah dan tata kelola harus dikaitkan dengan kontribusi hashrate yang terbukti, bukan kepemilikan modal.
Ketika konsensus ringan, validasi adaptif, dan insentif selaras dengan komputasi produktif, daya komputasi terdesentralisasi benar-benar dapat melayani beban kerja dunia nyata.
T: Jaringan daya komputasi AI terdesentralisasi sering menekankan partisipasi terbuka, tetapi persyaratan infrastruktur dapat menciptakan hambatan masuk yang tinggi. Bagaimana sistem seperti itu dapat diskalakan sambil tetap mempertahankan aksesibilitas bagi peserta dengan berbagai tingkat hashrate?
J: Sementara jaringan terdesentralisasi bertujuan untuk menurunkan hambatan masuk untuk infrastruktur AI, kelangsungan hidup jangka panjang sama-sama membutuhkan persaingan dengan penyedia terpusat dan memenuhi permintaan dunia nyata. Kendala perangkat keras pada akhirnya bermuara pada persyaratan inti: mampu membawa model yang benar-benar diminati.
Untuk menskalakan sambil mempertahankan aksesibilitas, beberapa prinsip sangat penting.
Pertama, akses infrastruktur tanpa izin. Setiap pemilik GPU—baik operator alat tunggal atau pusat data besar—harus dapat bergabung dengan jaringan tanpa proses persetujuan atau penjaga gerbang terpusat. Ini menghilangkan hambatan struktural untuk masuk.
Kedua, ini didasarkan pada imbalan proporsional dan pengaruh daya komputasi yang terbukti. Dalam model berdasarkan bobot daya komputasi, kontribusi komputasi yang lebih tinggi secara alami mengarah pada lebih banyak pembagian tugas, pembagian hadiah, dan bobot tata kelola. Ini tidak membuat pemain kecil benar-benar sama dengan pemain besar – juga tidak seharusnya. Kuncinya terletak pada kesatuan aturan: pengaruh ditentukan oleh kontribusi yang dihitung secara aktual, bukan oleh modal, mekanisme mandat, atau leverage keuangan.
Ketiga, peran kumpulan daya komputasi. Dalam sistem dengan persyaratan infrastruktur aktual, agregasi sumber daya terjadi secara alami. Kumpulan daya komputasi memungkinkan peserta yang lebih kecil untuk mengumpulkan sumber daya, mengurangi volatilitas, dan berpartisipasi dalam beban kerja yang lebih besar.
Namun, arsitektur harus menghindari pemberian keuntungan struktural kepada kumpulan hash besar atau konsentrasi pengaruh insentif yang berlebihan. Kumpulan daya komputasi harus ada sebagai alat koordinasi, bukan sebagai mekanisme yang diresentralisasi.
Pada akhirnya, skala jaringan daya komputasi AI yang terdesentralisasi seharusnya tidak berarti meningkatkan penghalang masuk. Ini berarti meningkatkan kapasitas komputasi secara keseluruhan sambil mempertahankan nilai ekonomi nyata yang diciptakan jaringan bagi pengguna sambil mempertahankan netralitas, transparansi, dan aturan partisipasi yang konsisten. Akses terbuka, ekonomi proporsional, dan konsentrasi terkendali menentukan apakah suatu sistem tetap terdesentralisasi seiring pertumbuhannya.
T: Mengapa masalah daya komputasi AI terdesentralisasi begitu mendesak saat ini? Jika masalah ini tidak ditangani dalam beberapa tahun ke depan, menurut Anda apa konsekuensi jangka panjang bagi industri ini?
J: Urgensi ini mencerminkan pergeseran AI dari eksperimental ke infrastruktur.
Seperti disebutkan sebelumnya, daya komputasi telah menjadi hambatan fisik. Skalabilitas semakin dibatasi tidak hanya oleh modal, tetapi juga oleh energi, kepadatan daya, dan kendala pusat data. Pada saat yang sama, akses ke GPU canggih dan infrastruktur hyperscale dipengaruhi oleh kontrak jangka panjang, sentralisasi perusahaan, dan prioritas strategis nasional.
Kombinasi ini memperdalam asimetri struktural. Mereka yang mengendalikan infrastruktur skala besar terus mengkonsolidasikan kekuatan mereka, sementara hambatan masuk untuk tim kecil dan wilayah berkembang terus meningkat. Risikonya bukan hanya konsentrasi pasar, tetapi juga melebarnya kesenjangan daya komputasi global.
Jika tren ini terus berlanjut, inovasi akan lebih bergantung pada akses infrastruktur daripada ide itu sendiri. Pasar AI kemungkinan akan memantapkan menjadi model berbasis sewa di mana kecerdasan diakses dalam kondisi yang ditetapkan oleh beberapa penyedia dominan.
Oleh karena itu, daya komputasi terdesentralisasi bukanlah perdebatan ideologis. Ini adalah respons terhadap kendala struktural yang terlihat – dan opsi yang akan membentuk arsitektur jangka panjang industri AI.
T: Agen AI semakin mandiri memesan sumber daya GPU. Bagaimana arsitektur Gonka memungkinkan integrasi tanpa batas dari ekonomi komputasi AI yang mengatur sendiri?
J: Munculnya AI beragen berarti bahwa sistem semakin membuat keputusan otonom – termasuk memperoleh sumber daya komputasi. Dalam model ini, daya komputasi menjadi aset inti dalam interaksi ekonomi antar agen.
Ekosistem semacam itu membutuhkan akses terprogram, ekonomi transparan, dan keandalan.
Pertama, integrasi harus mulus. Gonka menyediakan API yang kompatibel dengan OpenAI, memungkinkan sebagian besar agen AI untuk mengakses tanpa mengubah arsitektur atau alur kerja mereka.
Kedua, ekonomi daya komputasi harus transparan dan digerakkan oleh sistem. Harga disesuaikan secara dinamis berdasarkan beban jaringan daripada tetap melalui kontrak. Pada tahap awal jaringan, biaya inferensi dirancang secara signifikan lebih rendah daripada penyedia terpusat, karena peserta diberi kompensasi tidak hanya melalui biaya pengguna tetapi juga melalui hadiah yang mirip dengan mekanisme penerbitan Bitcoin, yang sebanding dengan kapasitas hash yang tersedia.
Struktur ini memungkinkan agen AI yang beroperasi sesuai anggaran untuk melakukan beban kerja secara efisien. Seiring berkembangnya jaringan, parameter penetapan harga akan tetap tunduk pada tata kelola komunitas.
Ketiga, keandalan diperkuat di tingkat protokol. Dalam lingkungan terpusat, keandalan berasal dari sertifikasi dan perjanjian tingkat layanan. Dalam infrastruktur terdesentralisasi, keandalan didukung oleh kode sumber terbuka, audit pihak ketiga, dan bukti terukur on-chain dari penyelesaian komputasi dan kinerja jaringan.
Bersama-sama, elemen-elemen ini memungkinkan agen AI untuk meminta hashrate dan mengalokasikan anggaran dalam kerangka kerja yang transparan. Dengan cara ini, Gonka menyediakan fondasi infrastruktur untuk ekonomi komputasi AI yang mengatur sendiri, memungkinkan agen untuk tidak hanya melakukan tugas tetapi juga secara dinamis mengoptimalkan sumber daya yang mereka andalkan.
T: Ketidakpastian peraturan seputar teknologi terdesentralisasi semakin intensif. Bagaimana Gonka secara proaktif menangani kedaulatan data dan kepatuhan tata kelola AI di pasar global yang terfragmentasi?
J: Dalam konteks daya komputasi terdesentralisasi, tantangan utama terletak pada menyeimbangkan keterbukaan jaringan dengan persyaratan yurisdiksi yang beragam dan berkembang.
Gonka adalah jaringan global tanpa izin – siapa pun dapat bergabung, dan permintaan dirutekan secara terprogram antara peserta terdistribusi. Pada tahap ini, pengguna tidak memiliki kontrol deterministik atas lokasi geografis tempat permintaan mereka diproses. Ini mungkin merupakan batasan saat ini untuk kasus penggunaan dengan residensi data yang ketat atau persyaratan pemrosesan regional.
Namun, dari perspektif privasi, arsitektur ini mengurangi sentralisasi data. Setiap permintaan diproses oleh peserta yang dipilih secara acak dan dirutekan secara independen, mencegah akumulasi riwayat pengguna lengkap. Sejauh ini, model ini telah mencakup sebagian besar kasus penggunaan dunia nyata sambil memungkinkan skala jaringan untuk menskalakan.
Seiring dengan pertumbuhan jaringan dan permintaan pasar menjadi lebih jelas, mekanisme tata kelola memungkinkan peserta untuk mengusulkan dan memberikan suara pada perubahan arsitektur untuk mendukung persyaratan peraturan tertentu. Perubahan ini dapat mencakup: subnet privat dengan kriteria partisipasi tambahan, kendala operasional khusus yurisdiksi, atau jaminan tingkat perangkat keras untuk beban kerja perusahaan, seperti Lingkungan Eksekusi Tepercaya (TEE).
Desentralisasi tidak menghilangkan kewajiban kepatuhan. Apa yang diberikannya adalah fleksibilitas arsitektur. Desain Gonka memungkinkan jaringan untuk berkembang berdasarkan tuntutan peraturan dan pasar, daripada terkunci dalam satu model kepatuhan sejak awal.