Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Di era AI, "berbagi daya komputasi" adalah sepeda kuning baru bagi para coder pemula
Sumber: Jike Park
Ditulis oleh: Xu Shan
“Biaya Token sedang anjlok.”
Jika kalimat ini diucapkan dua tahun lalu, itu pasti membuat setiap pendiri startup AI langsung bersemangat. Dari 2023 hingga 2025, biaya inferensi AI turun 99,7%. Perlu diketahui, saat GPT-4 dirilis, biaya per 1 juta Token adalah 37,5 dolar AS, dan pada 2025 angka itu sudah turun menjadi 0,14 dolar AS. Mengikuti tren ini, biaya komputasi untuk para pendiri seharusnya bukan lagi masalah.
Namun kenyataannya justru sebaliknya.
Pada periode yang sama, belanja cloud AI perusahaan-perusahaan di seluruh dunia melonjak dari 11,5 miliar dolar AS menjadi 37 miliar dolar AS, tepat tiga kali lipat. Setelah AI memasuki era A2A, puluhan agen cerdas berinteraksi berulang kali sehingga jumlah pemanggilan Token meledak secara eksponensial. Akibatnya, meskipun harga Token per unit makin murah, jumlah Token yang dikonsumsi untuk setiap tugas malah naik secara gila-gilaan.
Jelas sekali, komputasi sedang menjadi sumber daya paling aneh di era ini. Semakin murah, tetapi uang yang kamu keluarkan untuk itu justru akan semakin banyak.
Bagi para raksasa, masalah ini bisa diselesaikan dengan membangun pusat komputasi sendiri. Tetapi bagi sebagian besar perusahaan rintisan, mereka hanya bisa berdiri di pasar komputasi publik, menerima penetapan harga dari vendor cloud, menyaksikan tagihan komputasi bulan demi bulan makin tinggi, tanpa kemampuan tawar-menawar.
Peluang bisnis yang lahir dari ketidaksesuaian pasar yang terlihat oleh pendiri Jike Technology—Fu Zhi—adalah hal yang ia lihat.
Menurutnya, cara menurunkan biaya komputasi tidak hanya menunggu biaya turun secara alami, melainkan mengganti cara penggunaan komputasi agar biaya komputasi juga mulai turun. Jadikan komputasi seperti listrik—bisa dipakai kapan saja, bayar sesuai kebutuhan—mengaktifkan kembali sumber daya komputasi dalam jumlah besar yang selama ini menganggur dan terbuang sia-sia.
Baru-baru ini, Jike Technology menyelesaikan pendanaan putaran Pre-A, dengan valuasi paska-investasi sebesar 350 juta yuan renminbi, serta berencana meluncurkan putaran A dalam waktu dekat. Di tahun 2025, ketika jalur komputasi secara umum menghadapi tekanan, perusahaan teknologi yang menggunakan metode berbasis kecerdasan buatan untuk menyelesaikan masalah penjadwalan sumber daya ini diam-diam sudah mencapai pendapatan puluhan juta yuan, dan tingkat retensi pelanggan mendekati 100%.
Jike Technology sedang mengubah penjadwalan komputasi menjadi bisnis yang benar-benar nyata.
Pendiri Jike Technology Fu Zhi | Sumber gambar: Jike Technology
01 Ketika perusahaan AI meledak, catatan biaya komputasi menemukan jalan baru
Menjelang peluncuran produk baru, tim Remy hampir tidak tidur, siap kapan saja jika terjadi situasi tak terduga.
Namun ketika situs perusahaan didatangi 500.000 pengguna dalam 48 jam, bagi startup AI yang baru keluar dari tahap uji internal menuju tahap rilis publik, mereka perlu memperbesar seluruh infrastruktur puluhan kali dalam waktu singkat. Meski sudah ada persiapan, sebelum peluncuran Remy sebelumnya sudah menguji berbagai platform layanan cloud seperti Ucloud, Ali Cloud, dan Huawei Cloud, tetapi ketika arus trafik besar benar-benar datang menghantam, solusi akhir mereka justru adalah Jike Technology.
Secara sederhana, yang dilakukan Jike Technology adalah mengaktifkan komputasi yang menganggur, lalu mendistribusikannya sesuai kebutuhan untuk perusahaan AI yang memiliki kebutuhan yang fleksibel. Baik mesin yang kosong melenggang di warnet pada malam hari, atau GPU 4090 milik pengguna individu, ataupun sumber daya yang menganggur dari ruang server kecil—semuanya bisa menjadi bagian dari kumpulan komputasi yang dapat dijadwalkan oleh Jike Technology. Jika kapasitas pelanggan tidak mencukupi, kapan saja bisa menambah pengaturan dari kumpulan komputasi tersebut; bisa dipakai sesuka hati, kapan pun dibutuhkan.
Dalam 48 jam itu, Jike Technology secara darurat mengalokasikan hampir 1900 kartu GPU untuk Remy. Setiap kali pengguna mengajukan permintaan, akan muncul satu pesanan baru; ketika komputasi pengguna selesai, pesanan langsung ditutup. Pada hari itu, platform memproses lebih dari 1 juta pesanan.
“Pada momen puncak, penyedia layanan komputasi biasa biasanya hanya bisa membuka 20 kartu sementara—sudah sangat sulit. Di lebih banyak kasus, perusahaan masih harus menunggu, tetapi menunggu berarti kehilangan trafik, sesuatu yang sama sekali tidak ingin dilihat perusahaan.” Fu Zhi menjelaskan bahwa setelah kejadian itu, sebagian besar komputasi yang digunakan Remy berasal dari Jike Technology.
Kebutuhan Remy terhadap komputasi sebenarnya sederhana. Saat terjadi lonjakan trafik, klik pengguna harus bisa langsung ditanggapi tepat waktu. Pemanggilan komputasi harus cepat dan tepat waktu, sementara biayanya harus rendah. Semua ini adalah kebutuhan paling dasar komputasi bagi startup AI yang baru mulai.
Sebaliknya, ada jenis klien aplikasi AI lain yang menghadapi kebutuhan komputasi yang lebih spesifik, tetapi juga lebih nyata.
Pada musim Festival Musim Semi tahun lalu, ada perusahaan yang beroperasi di kawasan wisata dan membuat sesi foto ganti baju AI yang mendatangi Jike Technology. Mereka sebenarnya bukan tidak tahu kapan titik lonjakan trafik terjadi, tetapi tetap sulit menghitung biaya komputasinya.
Perangkat AI mereka banyak dipasang di kawasan wisata. Begitu masuk musim liburan, tempat menjadi penuh sesak, dan kebutuhan komputasi melonjak. Namun setelah liburan usai, kebutuhan komputasi hampir kembali menjadi nol. “Festival Musim Semi adalah puncak terbesar sepanjang tahun, sementara enam bulan sisanya tidak banyak orang di kawasan wisata,” kata mereka kepada Fu Zhi.
Fluktuasi kebutuhan komputasi seperti ini berarti: jika memilih menyewa komputasi berdasarkan puncak, sama saja 90% waktu setiap hari adalah membakar uang untuk memelihara kartu; jika menyewa berdasarkan nilai rata-rata, maka saat Festival Musim Semi kebutuhan pasti akan ambruk, yang sangat memengaruhi pengalaman pengguna. “Fluktuasi kebutuhan seperti ini, dalam skema layanan komputasi tradisional, relatif sulit mendapat solusi yang pas. Karena perbedaan ekstrem puncak-lembah seperti itu, dalam produk standar, pada dasarnya tidak ada logika penetapan harga yang sesuai,” kata Fu Zhi.
Namun skenario seperti ini justru sangat cocok untuk menggunakan platform berbagi komputasi Jike Technology.
Pada bulan itu, node layanan mengganti 1963 komputer pribadi, dan selama seluruh Festival Musim Semi, tidak pernah terjadi satu kali pun masalah stabilitas. “Dibandingkan pelanggan men-deploy sendiri komputasi berdasarkan puncak, kami membantu mereka menghemat hampir 70% biaya,” tambah Fu Zhi.
Kebutuhan dengan fluktuasi waktu seperti ini tidak hanya muncul pada beberapa skenario vertikal yang lebih spesifik, tetapi juga sama-sama umum bagi banyak perusahaan pendatang baru AI.
Liblib merupakan salah satu platform generasi gambar AI dengan jumlah pengguna domestik terbesar. Mereka sebelumnya menyewa banyak kartu GPU melalui platform vendor cloud. Namun jika diteliti lebih saksama, mereka menemukan bahwa jika dirata-ratakan, utilisasi GPU tersebut hanya 45%.
Ini berarti lebih dari separuh kartu setiap hari membakar uang tanpa guna.
Menurut Fu Zhi, sebenarnya perusahaan seperti liblib bukanlah sedikit; hampir semua alat aplikasi AI yang pengguna intinya adalah pekerja kantoran akan menghadapi masalah yang sama. Pada siang hari pengguna padat digunakan, sementara pada malam hari jumlah pengguna turun drastis. Jika disusun kapasitas berdasarkan puncak, pada malam hari tingkat menganggurnya tinggi. Tetapi jika disusun berdasarkan nilai rata-rata, pada siang hari sulit memenuhi kebutuhan seluruh pengguna.
Jalur AI terlihat ramai, tetapi yang mungkin justru menghambat kelangsungan hidup perusahaan bisa jadi adalah catatan biaya komputasi. Banyak perusahaan memiliki ekspektasi yang terlalu tinggi terhadap komputasi; biaya komputasi menyeret arus kas hingga ambruk. Ada juga perusahaan yang memperkirakan komputasi terlalu rendah; ketika mencapai puncak pemakaian, layanan kolaps, dan ketika pengguna pergi, mereka tidak kembali.
“Arus trafik aplikasi AI secara alami memang berfluktuasi. Logika penetapan harga pasar komputasi didesain untuk kebutuhan yang stabil, dan cara pembagian biaya komputasi selama ini masih bertahan pada metode yang relatif tradisional,” kata Fu Zhi. Inilah sebabnya ketika sebuah perusahaan AI benar-benar meledak, catatan biaya komputasi membutuhkan algoritme baru.
Dulu, model layanan komputasi tradisional didominasi kontrak sewa jangka panjang. Perusahaan menyewa selama 1 tahun; apakah dipakai atau tidak, tetap harus membayar biaya komputasi di muka. Biaya komputasi yang menganggur terutama ditanggung sendiri oleh perusahaan. Sedangkan yang dilakukan Jike Technology pada dasarnya adalah memindahkan biaya tersebut ke tempat lain, yakni kepada mereka yang sebenarnya memiliki komputasi menganggur tetapi tidak bisa menjalankannya hingga penuh—misalnya pengguna individu, warnet, dan sebagainya. Komputasi ini sebenarnya sudah terbuang; jika dijadwalkan, tidak muncul biaya komputasi baru, sekaligus menghidupkan kembali komputasi yang sudah ada tetapi menganggur.
“Komputasi tidak harus sebanyak mungkin,” kata Fu Zhi, “melainkan bisa mengalir, bisa dipanggil kapan saja—baru bagus.”
02 Bisnis komputasi elastis ini menguji kemampuan manajemen energi
Bagi Fu Zhi, peluang untuk menjalankan bisnis penjadwalan komputasi sebenarnya berasal dari kesempatan yang kebetulan.
Pada liburan Mei 2023, tepat ketika gelombang AI baru saja mulai muncul, Fu Zhi melemparkan sebuah pesan ke sebuah komunitas pendiri startup AI. Isinya sangat sederhana: saya punya 1 unit A100; sewa makin pendek makin murah; kalau butuh, datanglah.
Saat itu, ekspektasinya sebenarnya tidak terlalu besar, karena hanya ada 1 kartu. Hasilnya di luar dugaan: akhirnya ada 30 orang yang menanyakan, dan semuanya dengan cepat serta lancar langsung membayar.
“Aku bilang, siapa pun yang bayar cepat, aku layani dia.” Pada akhirnya ia memilih 5 orang untuk dilayani. 1 kartu, 5 pelanggan. Itu memverifikasi sebuah penilaian yang sudah ia pikirkan cukup lama: orang biasa mulai membutuhkan komputasi.
Namun ia juga paham bahwa bisnis ini baru bisa terwujud pada waktu itu bukan karena keberuntungannya, melainkan karena sebelum itu, tidak ada kondisi yang memungkinkan untuk melakukan hal tersebut.
Pasalnya, pada tahun 1999 sudah ada orang yang pernah mengusulkan berbagi komputasi, membangun platform BOINC, puluhan ribu bahkan ratusan ribu orang menyumbangkan komputasi di atasnya. Namun pada saat itu yang dibuat adalah platform komputasi ilmiah yang bersifat nirlaba; semua orang bisa menggunakannya secara gratis. Kemudian ketika Bitcoin sedang panas, ada juga orang yang mempertimbangkan memanfaatkan gelombang penambangan untuk menjadwalkan komputasi menganggur, tetapi itu tidak legal.
Ide terus ada, tetapi tanahnya tidak pernah ada.
Bagaimanapun, pengguna biasa dengan GPU berperforma tinggi adalah generasi pasca-90an dan pasca-2000an. Sebelum itu, sangat sedikit orang yang konfigurasi komputer pribadinya adalah 4090. Dan agar komputer pribadi bisa menjalankan lingkungan virtual Linux dengan aman, WSL1.0.0 juga baru resmi dirilis pada tahun 2022. Belum lagi teknologi untuk memanggil jarak jauh perangkat pribadi yang tersebar di berbagai tempat agar bisa menembus jaringan internal; teknologi seperti itu baru benar-benar matang sekitar tahun 2021.
Dengan tiga hal yang lengkap—sisi pasokan, sisi permintaan, dan syarat teknis—barulah bisnis ini menjadi mungkin.
Namun Fu Zhi merasa sinyal bahwa “waktunya sudah tiba” bukan datang dari DeepSeek atau mesin all-in-one, melainkan dari skenario konsumsi AI yang tengah merembes dari alat khusus menuju hiburan harian bagi masyarakat umum.
“Begitu proses ini dipercepat, kebutuhan akan komputasi tidak lagi berupa pembelian oleh beberapa perusahaan besar, melainkan harus seperti listrik—perlu dijadwalkan dan didistribusikan secara besar-besaran lintas node,” kata Fu Zhi.
Inilah juga alasan mengapa Jike Technology sedang berupaya menjalin kerja sama dengan National Computing Power Center. Saat ini, mereka sudah ikut berpartisipasi dalam pembangunan platform penjadwalan komputasi tingkat provinsi untuk wilayah Jing-Jin-Ji, Delta Sungai Yangtze, Shenzhen, dan Qinghai. Sistem penjadwalan yang dibangun di berbagai tempat, secara teknis juga melibatkan kontribusi Jike.
Namun, “penjadwalan komputasi” ternyata jauh lebih sulit daripada yang terlihat.
Penjadwalan komputasi dan manajemen komputasi tidak sama. Fu Zhi membedakan keduanya: yang dilakukan perusahaan-perusahaan besar adalah manajemen. Mereka memasukkan sekelompok mesin ke dalam satu sistem yang sama, mengetahui siapa yang sedang menggunakan dan siapa yang menganggur, tetapi sulit mewujudkan alokasi dinamis lintas wilayah dan lintas perangkat.
Sedangkan penjadwalan komputasi adalah urusan lain. Ia perlu mengisi kebutuhan puncak di satu tempat dengan komputasi menganggur dari tempat lain. Dalam rekayasa komputer, sebenarnya tidak ada solusi siap pakai; justru ini adalah masalah lama di bidang energi. Istilah “mengurangi puncak dan mengisi lembah” memang merupakan istilah dari sistem tenaga listrik.
Fu Zhi mengambil program sarjana di Tsinghua pada Teknik Lingkungan dan Rekayasa Aplikasi Energi, dengan mentor seorang akademisi di bidang energi. Ia memindahkan algoritme penjadwalan energi untuk menyelesaikan masalah versi komputasi yang sama, dan inilah penghalang inti paling penting dari Jike.
Tentu saja, dalam pengembangan teknis, sistem penjadwalan lintas wilayah ini juga akan menghadapi banyak masalah. Misalnya, komputer pribadi yang terhubung ke pool penjadwalan setiap saat bisa “diambil alih”. Jika pengguna mulai bermain game, komputer itu harus keluar, tetapi pelanggan hilir menuntut layanan tidak boleh berhenti.
Pilihan Fu Zhi adalah hot standby plus prediksi, yaitu menyiapkan node redundan untuk setiap tugas sejak awal, sekaligus menggunakan data historis yang terkumpul untuk memprediksi pola online dari masing-masing penyedia, lalu menyesuaikan rasio pencadangan secara dinamis. Semakin banyak data, pencadangan semakin akurat, dan biayanya semakin rendah. “Dulu saya harus mencadangkan 2 mesin untukmu. Tapi seiring penggunaan, sekarang saya hanya perlu mencadangkan 1.” Lapisan transmisi jaringan juga tidak stabil; respons Jike adalah dengan secara bersamaan menghubungkan 3 vendor cloud papan atas. Fu Zhi menyebut, “Tidak mungkin semuanya bermasalah pada waktu yang sama.”
Kalau begitu, mengapa vendor cloud tidak melakukan komputasi elastis?
Penjelasan Fu Zhi adalah: perusahaan-perusahaan besar memang sudah melihatnya, tetapi komputasi elastis versi mereka berbeda dalam penentuan posisi produk dan strategi penetapan harga; keunggulan Jike ada pada harga dan efisiensi penjadwalan.
Kontradiksi utama komputasi elastis adalah: kamu harus menyiapkan komputasi “yang bisa dipanggil kapan saja” sejak awal, tetapi ketika komputasi itu tidak digunakan, ia hanya menjadi biaya menganggur murni. Ekspansi elastis dari penyedia layanan komputasi umumnya sekitar 5 kali dari harga normal, atau meminta pelanggan menandatangani kontrak jangka panjang 1 tahun, dengan risiko komputasi menganggur ditanggung oleh pelanggan.
Jike bisa menyediakan elastis yang benar-benar nyata karena sumber daya yang digunakan memang sumber daya yang menganggur. Sumber daya ini tidak dibeli lebih dulu untuk menekan biaya; sumber daya tersebut pada dasarnya sudah menganggur, sehingga Jike bisa menawarkan harga yang lebih unggul.
Menurut analisis Fu Zhi, dalam seluruh pasar, 80% kebutuhan komputasi mengalir ke paket sewa jangka panjang dari perusahaan besar, sedangkan 20% sisanya adalah bagian yang memiliki kebutuhan elastis. Fu Zhi tidak berencana merebut 80% itu; ia lebih fokus pada pasar 20%, dan seiring aplikasi AI terus tumbuh, ruang pasar untuk 20% itu juga akan makin besar. “Di tempat orang, makin lama sewa makin murah; di tempatku, makin pendek sewa makin murah.” tambah Fu Zhi. Saat ini, platform berbagi komputasi Jike, “suanli.cn”, memungkinkan konsumen biasa menyewa komputasi terkait berdasarkan milidetik.
Foto bersama tim Jike Technology | Sumber gambar: Jike Technology
Model bisnis berbagi seperti ini sebenarnya sudah lebih dulu terbukti di bidang lain.
Fu Zhi menyamakan esensi bisnis ini dengan Airbnb: ketika sebuah kota mengadakan pameran besar, hotel-hotel di sekitarnya penuh, dan Airbnb mempertemukan warga yang punya kamar kosong dengan peserta pameran yang tidak punya tempat tinggal. Cerita versi komputasi juga mengikuti jalur yang sama: pada saat rilis versi aplikasi AI dan ketika terjadi ledakan trafik, mereka membutuhkan komputasi dalam jumlah besar; sementara pada waktu normal kebutuhannya jauh lebih sedikit. Di sisi lain, komputasi dari pengguna individu, warnet, dan ruang server kecil menganggur dalam jumlah besar pada malam hari dan hari kerja. Menghubungkan kedua sisi itu adalah yang dilakukan Jike.
Hanya saja, yang dibagikan bukan kamar, melainkan komputasi.
03 Penjadwalan energi komputasi, “infrastruktur yang didefinisikan oleh perangkat lunak” di era AI
Jalur ini juga pernah ditempuh di luar negeri. Misalnya, RunPod juga menyediakan layanan inferensi elastis melalui komputasi yang tersebar, dan pada tahun 2024 berhasil mengantongi putaran seed sebesar 20 juta dolar AS yang dipimpin bersama oleh Intel Capital dan Dell Technologies Capital. Di antara kliennya ada Cursor, OpenAI, dan Perplexity.
Namun menurut Fu Zhi, menjalankan hal seperti itu di Amerika Serikat dan di Tiongkok sama sekali berbeda.
AWS sejak awal sudah menyediakan komputasi elastis. Sejak semula mereka berjanji bisa digunakan sesuai kebutuhan, dan melayani pasar yang sudah matang melalui layanan elastis dengan harga tinggi. Sementara vendor cloud di dalam negeri lebih cenderung menawarkan model sewa jangka panjang, dan kebijakan diskon terkait juga cenderung seperti itu. Mereka tidak terlalu menaruh perhatian pada layanan elastis, sehingga niat membayar untuk komputasi elastis dari pengguna juga jauh lebih rendah dibanding di Amerika Serikat. Maka jika logika RunPod dipindahkan ke dalam negeri, penetapan harga tidak akan jalan.
Namun Fu Zhi berpendapat bahwa penjadwalan komputasi bukanlah bisnis yang hanya melihat sewa komputasi. “Berbagi komputasi mungkin hanya batu loncatan untuk mengetuk pintu.” katanya tanpa ragu. Menurut penilaiannya, bisnis ini punya jendela sekitar 2 sampai 3 tahun. Selama ketidaksesuaian antara pasokan dan permintaan komputasi masih ada, celah itu akan tetap ada, tetapi celah itu tidak akan selamanya bertahan.
Kejernihan seperti ini tidak banyak ditemukan di kalangan pendiri startup. Tetapi justru karena itu, ia sejak awal sudah memikirkan hal yang lebih mendasar: dari mana aplikasi AI berikutnya yang benar-benar meledak akan tumbuh? Penilaian ini akan secara langsung menentukan arah kebutuhan komputasi. Untuk itu, Fu Zhi punya dua penilaian ke depan.
Pertama, menurut analisisnya, aplikasi super di Tiongkok tidak akan tumbuh dari alat produktivitas di PC. Arah yang benar-benar berpeluang adalah hiburan sosial di perangkat mobile, dipadukan dengan perangkat keras lintas batas dari rantai pasokan, serta aplikasi AI yang bisa tertanam dalam skenario kehidupan nyata.
Internet Tiongkok tidak pernah mengalami era alat produktivitas PC yang benar-benar mendalam. Pengguna langsung melompat dari era ponsel fitur ke internet seluler. Dokumentasi AI, slide AI, dan asisten kode AI yang muncul di Amerika Serikat, semuanya bergantung pada basis pengguna yang berjumlah puluhan juta kebiasaan bekerja di PC serta mau membayar untuk alat SaaS—tetapi di Tiongkok tidak demikian. “Apakah lebih dari 100 juta orang di seluruh Tiongkok memang benar-benar perlu menulis Word? Menurutku mungkin tidak.” Yang makin rumit lagi, bahkan jika ada kebutuhan seperti itu, perusahaan besar akan segera membuat fungsi-fungsi tersebut menjadi plugin gratis.
Sebaliknya, ia melihat pertumbuhan tinggi di skenario hiburan sosial. Ia sudah berdiskusi dengan banyak pelaku industri short drama dan film, lalu menanyakan mengapa mereka begitu aktif merangkul AI. Respons mereka memberinya ide baru: “Aku sudah tidak punya apa pun untuk hilang. Tidak ada orang lagi menonton film dan serial televisi, kita sudah hampir mati.” Mereka adalah pihak paling aktif merangkul AI di pasar Tiongkok—bukan karena paling mengerti teknologinya, tetapi karena mereka tidak punya pilihan lain. “Sekarang, hampir tidak ada orang lagi yang menonton TV atau film.”
Untuk perkembangan AI hardware, ia juga punya pandangan yang agak berbeda.
Dalam beberapa tahun terakhir, pemikiran utama AI hardware adalah “menambahkan semua hal dengan kotak percakapan”—artinya perangkat apa pun diberi jendela chat. Fu Zhi merasa arah ini tidak tepat. “Konsumen tidak butuh kulkas yang bisa menulis puisi.”
AI hardware yang benar-benar punya tenaga hidup adalah yang masuk ke skenario frekuensi tinggi yang memang sudah dimiliki pengguna, sehingga AI diam-diam menyelesaikan pekerjaan di belakang layar, bukan menyeret pengguna untuk duduk khusus lalu mengobrol dengannya.
Seperti kamera hewan peliharaan yang seharusnya bisa secara otomatis mengenali apakah kucing sedang sakit, atau kamera di kawasan wisata yang otomatis menyelesaikan pemotretan ganti baju. Pengguna tidak perlu mengubah apa pun; AI diam-diam sudah menyelesaikan semuanya. “Jika jenis hardware seperti ini bisa memakai model open source untuk deployment, maka pada saat ledakan trafik terjadi, itu juga akan menjadi pelanggan komputasi elastis.” menurut Fu Zhi. Ia juga merasa ini adalah salah satu titik pertumbuhan masa depan Jike Technology.
Penilaian kedua Fu Zhi, yang lebih tersembunyi, sebenarnya sudah terbentuk sejak akhir 2024, tetapi ia baru menunggu kesempatan untuk membuktikannya tahun ini.
Ia yakin bahwa membiarkan manusia langsung berinteraksi dengan AI adalah bentuk pemborosan efisiensi. Kecepatan input-output informasi manusia punya batas; satu kali hanya bisa mengajukan satu pertanyaan, lalu harus menunggu jawaban muncul sebelum bertanya berikutnya. Tetapi AI bisa memproses puluhan ribu thread sekaligus, menyelesaikan pemindahan informasi antar mesin dalam rentang milidetik. “Menggerakkan AI dengan manusia adalah menggunakan mata rantai paling lambat, sehingga menyeret kecepatan seluruh sistem.”
Yang seharusnya terjadi adalah kerja sama langsung antara AI dan AI, A2A. Satu tugas dikirim, lalu memicu serangkaian rangkaian eksekusi AI; manusia hanya perlu mendefinisikan tujuan, tidak perlu ikut terlibat dalam setiap langkah perantara. Inilah alasan mengapa OpenClaw saat ini begitu dihargai orang. Ini juga alasan utama mengapa Fu Zhi merasa OpenClaw benar-benar penting: bukan karena produk itu sendiri, melainkan karena produk ini membuktikan satu hal—AI dan AI bisa membentuk komunitasnya sendiri, dan ada pihak yang mau membayar untuk A2A. Arah ini berjalan.
Begitu model A2A menjadi arus utama, konsumsi komputasi akan menjadi beberapa kali lipat bahkan puluhan kali lipat dari saat ini. Di GTC 2026, Huang Renxun mengatakan bahwa karena ledakan Agentic AI dan kemampuan penalaran, jumlah komputasi yang dibutuhkan saat ini setidaknya 100 kali lebih besar daripada ekspektasi setahun sebelumnya, dan itu baru permulaan. Pada saat itu, komputasi benar-benar akan seperti listrik: yang perlu dipikirkan bukan lagi berapa banyak kartu yang perlu kamu stok, melainkan apakah seluruh “jaringan listrik komputasi” dapat didistribusikan sesuai kebutuhan. Manajemen sumber daya komputasi akan tiba di ranah penjadwalan.
Ketika A2A benar-benar datang, komputasi akan menjadi infrastruktur di balik setiap orang, setiap tugas, dan setiap node AI—seperti listrik. Saat itu, siapa pun yang bisa melakukan penjadwalan komputasi secara presisi lintas wilayah, lintas perangkat, dan lintas waktu, dialah yang menguasai kemampuan operasional sesungguhnya dari jaringan itu.
Menurut Fu Zhi, apa yang dilakukan Jike Technology sekarang adalah menyiapkan momen tersebut. Memanfaatkan jendela 2 sampai 3 tahun ini untuk membangun kemampuan penjadwalan, jaringan node, serta hubungan dengan pelanggan. Ketika kebutuhan A2A benar-benar meledak, sistem inilah yang menjadi parit pertahanan utama Jike Technology.
Baru-baru ini ia mengirim satu kalimat di dalam perusahaan. Ketika wawancara hampir selesai, ia mengulangnya lagi:
“Bahkan demikian, semua ini baru saja dimulai.”
Dalam konteks komputasi elastis, kalimat ini mungkin hanya merupakan penilaian optimistis seorang pengusaha terhadap pasar. Tetapi dalam konteks A2A, “mulai” yang ia maksud mungkin bukan permulaan bisnis ini, melainkan momen ketika gagasan bahwa komputasi adalah infrastruktur memasuki fase dimulainya yang sesungguhnya.