Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Google AI yang menyimpan saham sebesar 90 miliar dolar AS dan terkait makalah penelitian, dituduh melakukan kecurangan eksperimen
Penulis naskah asli: Deep Tide TechFlow
Sebuah makalah dari Google yang mengklaim “mengompresi penggunaan memori AI hingga 1/6” pekan lalu memicu saham chip penyimpanan global seperti Micron dan SanDisk ambruk, dengan nilai pasar total menguap lebih dari 90 miliar dolar AS.
Namun hanya dua hari setelah makalah dirilis, pihak yang “dihantam” oleh algoritma tersebut—seorang pascasarjana doktoral di ETH Zurich, Gao Jiangyang, memublikasikan surat terbuka berdurasi ribuan kata—menuduh bahwa tim Google dalam eksperimen menggunakan skrip Python berbasis CPU satu inti untuk menguji lawan, tetapi menggunakan GPU A100 untuk menguji diri mereka sendiri, dan setelah diberitahu masalahnya sebelum pengajuan, tetap menolak memperbaikinya. Pembacaan di Zhihu melonjak cepat menembus 4 juta, akun resmi Stanford NLP mentransfer ulang postingannya, dan dunia akademik serta pasar sama-sama diguncang.
Inti persoalan dari kontroversi ini sebenarnya tidak rumit: sebuah makalah AI “top conference” yang secara resmi dipromosikan secara besar-besaran oleh Google dan langsung memicu aksi jual panik pada sektor chip global—apakah secara sistematis mendistorsi sebuah riset pendahuluan yang sudah dipublikasikan, dan melalui eksperimen yang sengaja dibuat tidak adil, membentuk narasi keunggulan performa yang semu?
TurboQuant melakukan apa: menipiskan “kertas konsep” AI menjadi seperenam
Saat model bahasa besar menghasilkan jawaban, ia perlu menulis sambil sesekali kembali untuk melihat konten yang telah dihitung sebelumnya. Hasil antara ini disimpan sementara di memori GPU; dalam industri disebut “KV Cache” (key-value cache). Semakin panjang percakapan, semakin tebal “kertas konsep” ini, sehingga konsumsi memori meningkat dan biayanya pun ikut naik.
Algoritma TurboQuant yang dikembangkan oleh tim riset Google adalah keunggulan utamanya adalah mengompresi kertas konsep tersebut hingga 1/6 dari aslinya, sekaligus mengklaim tidak ada kehilangan akurasi, dengan peningkatan kecepatan inferensi hingga maksimal 8 kali. Makalah pertama kali dirilis pada platform preprint arXiv pada April 2025, diterima oleh konferensi teratas di bidang AI, ICLR 2026, pada Januari 2026, dan pada 24 Maret dipaketkan ulang serta dipromosikan kembali oleh blog resmi Google.
Dari sisi teknis, cara berpikir TurboQuant dapat dipahami secara sederhana sebagai: pertama, menggunakan suatu transformasi matematis untuk “mencuci” data yang berantakan menjadi format yang seragam; lalu mengompresi setiap bagian dengan tabel kompresi optimal yang sudah dihitung sebelumnya; terakhir menggunakan mekanisme koreksi kesalahan 1-bit untuk membetulkan bias perhitungan yang ditimbulkan oleh kompresi. Implementasi independen oleh komunitas telah memverifikasi bahwa hasil kompresinya pada dasarnya sesuai; kontribusi matematis pada tingkat algoritma memang benar-benar ada.
Kontroversi bukan pada apakah TurboQuant bisa digunakan, melainkan pada apa yang dilakukan Google untuk membuktikan bahwa ia “jauh melampaui kompetitor”.
Surat terbuka Gao Jiangyang: tiga tuduhan, semuanya mengena
Pada malam 27 Maret pukul 10 malam, Gao Jiangyang memublikasikan tulisan panjang di Zhihu, sekaligus mengirim komentar resmi melalui platform review ICLR, OpenReview. Gao Jiangyang adalah penulis pertama dari algoritma RaBitQ; algoritma ini diterbitkan pada 2024 di konferensi teratas bidang basis data SIGMOD, yang memecahkan kelas masalah yang sama—kompresi efisien vektor berdimensi tinggi.
Tuduhannya dibagi menjadi tiga poin, dan tiap poin didukung oleh catatan email serta timeline.
Tuduhan 1: menggunakan metode inti orang lain, dan seluruh naskah tidak menyebutnya.
Inti langkah kunci yang dimiliki TurboQuant dan RaBitQ adalah satu tahap bersama: sebelum mengompresi data, terlebih dahulu dilakukan “rotasi acak” pada data. Langkah ini berfungsi mengubah data yang sebelumnya tidak beraturan dalam distribusi menjadi distribusi yang dapat diprediksi dan merata, sehingga secara drastis menurunkan tingkat kesulitan kompresi. Inilah bagian yang paling inti dan paling mirip dari dua algoritma tersebut.
Penulis TurboQuant sendiri juga mengakui hal ini dalam balasan untuk review, namun dalam seluruh naskah makalah ia tidak pernah menjelaskan secara langsung keterkaitan metode ini dengan RaBitQ. Lebih penting lagi, konteksnya adalah: penulis kedua TurboQuant, Majid Daliri, pada Januari 2025 secara proaktif menghubungi tim Gao Jiangyang, meminta bantuan untuk debugging versi Python yang ia ubah dari kode sumber RaBitQ. Dalam email tersebut, ia merinci langkah-langkah replikasi dan informasi error—dengan kata lain, tim TurboQuant sangat memahami detail teknis RaBitQ.
Seorang reviewer anonim di ICLR juga secara independen menyoroti bahwa keduanya menggunakan teknik yang sama, dan meminta pembahasan yang memadai. Namun dalam versi final makalah, tim TurboQuant tidak menambahkan pembahasan; malah memindahkan deskripsi RaBitQ di badan utama (yang sebelumnya pun sudah tidak lengkap) ke bagian lampiran.
Tuduhan 2: tanpa dasar menyebut teori pihak lain “suboptimal”.
Makalah TurboQuant langsung memberi RaBitQ label “teori suboptimal”, dengan alasan analisis matematis RaBitQ “cukup kasar”. Namun Gao Jiangyang menunjukkan bahwa versi paper yang diperluas dari RaBitQ sudah membuktikan secara ketat bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini dipublikasikan di konferensi teratas ilmu komputer teoretis.
Pada Mei 2025, tim Gao Jiangyang pernah menjelaskan optimalitas teoretis RaBitQ secara rinci melalui beberapa ronde email. Daliri, penulis kedua TurboQuant, mengonfirmasi bahwa ia sudah memberi tahu seluruh penulis. Tetapi pada akhirnya, makalah tetap mempertahankan istilah “suboptimal” tanpa memberikan argumen bantahan apa pun.
Tuduhan 3: dalam perbandingan eksperimen, “tangan kiri mengikat, tangan kanan memegang pisau”.
Ini adalah bagian yang paling “mematikan” dari seluruh naskah. Gao Jiangyang menyatakan bahwa dalam eksperimen perbandingan kecepatan, makalah TurboQuant menumpuk dua kondisi yang tidak adil:
Pertama, RaBitQ resmi menyediakan kode C++ yang dioptimalkan (secara default mendukung paralel multi-thread), tetapi tim TurboQuant tidak menggunakannya, melainkan memakai versi Python yang mereka terjemahkan untuk menguji RaBitQ. Kedua, saat menguji RaBitQ, digunakan CPU single-core dan multi-thread dimatikan, sedangkan TurboQuant menggunakan NVIDIA A100 GPU.
Dua kondisi tersebut bila digabungkan menghasilkan efek: pembaca melihat kesimpulan “RaBitQ lebih lambat beberapa orde besaran daripada TurboQuant”, namun tidak diberi tahu bahwa kesimpulan itu didasarkan pada premis bahwa tim Google terlebih dahulu “mengikat tangan dan kaki” lawannya sebelum balapan dijalankan. Makalah tidak mengungkap secara memadai perbedaan kondisi eksperimen ini.
Respons Google: “Rotasi acak” adalah teknik umum, tidak mungkin mengutip semuanya
Menurut pengungkapan Gao Jiangyang, dalam balasan email tim TurboQuant pada Maret 2026 disebutkan: “penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss sudah merupakan teknik standar di bidang ini, kami tidak mungkin mengutip setiap makalah yang memakai metode-metaan ini.”
Tim Gao Jiangyang menilai itu sebagai pengelabuan konsep: bukanlah persoalan apakah perlu mengutip semua makalah yang pernah menggunakan rotasi acak, melainkan RaBitQ adalah pekerjaan pertama yang menggabungkan metode ini dengan kompresi vektor pada pengaturan masalah yang benar-benar sama, sekaligus membuktikan sifat optimalnya; karena itu, makalah TurboQuant seharusnya menggambarkan hubungan keduanya secara akurat.
Akun X resmi Stanford NLP Group mentransfer ulang pernyataan Gao Jiangyang. Tim Gao Jiangyang telah memublikasikan komentar terbuka di platform ICLR OpenReview, dan mengajukan keluhan resmi kepada ketua konferensi ICLR serta komite etika; selanjutnya mereka juga akan memublikasikan laporan teknis terperinci di arXiv.
Blogger teknis independen Dario Salvati memberikan penilaian yang relatif netral dalam analisisnya: TurboQuant memang memiliki kontribusi yang nyata pada metode matematis, tetapi hubungan dengan RaBitQ jauh lebih erat daripada yang digambarkan dalam makalah.
Nilai pasar 90 miliar dolar AS menguap: kontroversi makalah menumpuk kepanikan pasar
Timeline terjadinya kontroversi akademik ini sangatlah sensitif. Setelah Google mempublikasikan TurboQuant melalui blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami aksi jual yang hebat. Menurut laporan berbagai media seperti CNBC, saham Micron Technologies turun selama enam hari perdagangan berturut-turut, dengan penurunan kumulatif lebih dari 20%; SanDisk turun 11% dalam satu hari; SK Hynix Korea turun sekitar 6%, Samsung Electronics turun hampir 5%, dan Kioxia Jepang turun sekitar 6%. Logika kepanikan pasar sederhana dan brutal: kompresi perangkat lunak dapat menurunkan kebutuhan memori inferensi AI hingga 6 kali, sehingga prospek permintaan chip penyimpanan akan diturunkan secara struktural.
Analis Morgan Stanley Joseph Moore membantah logika tersebut dalam laporan riset 26 Maret, mempertahankan rating “beli” untuk Micron dan SanDisk. Moore menunjukkan bahwa kompresi TurboQuant hanya mengompresi KV Cache jenis cache tertentu, bukan keseluruhan penggunaan memori, dan menyebutnya sebagai “peningkatan produktivitas yang normal.” Analis Bank of America Andrew Rocha juga mengutip paradoks Jevons: peningkatan efisiensi menurunkan biaya, yang justru dapat mendorong penyebaran AI dalam skala yang lebih besar, sehingga pada akhirnya meningkatkan kebutuhan memori.
Makalah lama, kemasan baru: risiko rantai penularan riset AI ke narasi pasar
Menurut analisis blogger teknis Ben Pouladian, makalah TurboQuant sebenarnya sudah dipublikasikan secara terbuka sejak April 2025, bukan riset baru. Pada 24 Maret, Google memaketkan ulang dan mempromosikannya kembali melalui blog resmi, tetapi pasar justru menilainya sebagai terobosan baru. Strategi promosi “makalah lama, rilis baru” ini, ditambah potensi adanya bias eksperimen dalam makalah, mencerminkan risiko sistematis dalam rantai penularan riset AI dari jurnal akademik ke narasi pasar.
Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim mencapai peningkatan performa “beberapa orde besaran”, hal pertama yang perlu dipertanyakan adalah apakah kondisi pembandingnya adil.
Tim Gao Jiangyang telah menyatakan dengan jelas bahwa mereka akan terus mendorong penyelesaian resmi atas masalah tersebut. Pihak Google belum memberikan respons resmi terhadap tuduhan spesifik dalam surat terbuka tersebut.