Google AI yang menyimpan saham sebesar 90 miliar dolar AS dan terkait makalah penelitian, dituduh melakukan kecurangan eksperimen

Penulis naskah asli: Deep Tide TechFlow

Sebuah makalah dari Google yang mengklaim “mengompresi penggunaan memori AI hingga 1/6” pekan lalu memicu saham chip penyimpanan global seperti Micron dan SanDisk ambruk, dengan nilai pasar total menguap lebih dari 90 miliar dolar AS.

Namun hanya dua hari setelah makalah dirilis, pihak yang “dihantam” oleh algoritma tersebut—seorang pascasarjana doktoral di ETH Zurich, Gao Jiangyang, memublikasikan surat terbuka berdurasi ribuan kata—menuduh bahwa tim Google dalam eksperimen menggunakan skrip Python berbasis CPU satu inti untuk menguji lawan, tetapi menggunakan GPU A100 untuk menguji diri mereka sendiri, dan setelah diberitahu masalahnya sebelum pengajuan, tetap menolak memperbaikinya. Pembacaan di Zhihu melonjak cepat menembus 4 juta, akun resmi Stanford NLP mentransfer ulang postingannya, dan dunia akademik serta pasar sama-sama diguncang.

Inti persoalan dari kontroversi ini sebenarnya tidak rumit: sebuah makalah AI “top conference” yang secara resmi dipromosikan secara besar-besaran oleh Google dan langsung memicu aksi jual panik pada sektor chip global—apakah secara sistematis mendistorsi sebuah riset pendahuluan yang sudah dipublikasikan, dan melalui eksperimen yang sengaja dibuat tidak adil, membentuk narasi keunggulan performa yang semu?

TurboQuant melakukan apa: menipiskan “kertas konsep” AI menjadi seperenam

Saat model bahasa besar menghasilkan jawaban, ia perlu menulis sambil sesekali kembali untuk melihat konten yang telah dihitung sebelumnya. Hasil antara ini disimpan sementara di memori GPU; dalam industri disebut “KV Cache” (key-value cache). Semakin panjang percakapan, semakin tebal “kertas konsep” ini, sehingga konsumsi memori meningkat dan biayanya pun ikut naik.

Algoritma TurboQuant yang dikembangkan oleh tim riset Google adalah keunggulan utamanya adalah mengompresi kertas konsep tersebut hingga 1/6 dari aslinya, sekaligus mengklaim tidak ada kehilangan akurasi, dengan peningkatan kecepatan inferensi hingga maksimal 8 kali. Makalah pertama kali dirilis pada platform preprint arXiv pada April 2025, diterima oleh konferensi teratas di bidang AI, ICLR 2026, pada Januari 2026, dan pada 24 Maret dipaketkan ulang serta dipromosikan kembali oleh blog resmi Google.

Dari sisi teknis, cara berpikir TurboQuant dapat dipahami secara sederhana sebagai: pertama, menggunakan suatu transformasi matematis untuk “mencuci” data yang berantakan menjadi format yang seragam; lalu mengompresi setiap bagian dengan tabel kompresi optimal yang sudah dihitung sebelumnya; terakhir menggunakan mekanisme koreksi kesalahan 1-bit untuk membetulkan bias perhitungan yang ditimbulkan oleh kompresi. Implementasi independen oleh komunitas telah memverifikasi bahwa hasil kompresinya pada dasarnya sesuai; kontribusi matematis pada tingkat algoritma memang benar-benar ada.

Kontroversi bukan pada apakah TurboQuant bisa digunakan, melainkan pada apa yang dilakukan Google untuk membuktikan bahwa ia “jauh melampaui kompetitor”.

Surat terbuka Gao Jiangyang: tiga tuduhan, semuanya mengena

Pada malam 27 Maret pukul 10 malam, Gao Jiangyang memublikasikan tulisan panjang di Zhihu, sekaligus mengirim komentar resmi melalui platform review ICLR, OpenReview. Gao Jiangyang adalah penulis pertama dari algoritma RaBitQ; algoritma ini diterbitkan pada 2024 di konferensi teratas bidang basis data SIGMOD, yang memecahkan kelas masalah yang sama—kompresi efisien vektor berdimensi tinggi.

Tuduhannya dibagi menjadi tiga poin, dan tiap poin didukung oleh catatan email serta timeline.

Tuduhan 1: menggunakan metode inti orang lain, dan seluruh naskah tidak menyebutnya.

Inti langkah kunci yang dimiliki TurboQuant dan RaBitQ adalah satu tahap bersama: sebelum mengompresi data, terlebih dahulu dilakukan “rotasi acak” pada data. Langkah ini berfungsi mengubah data yang sebelumnya tidak beraturan dalam distribusi menjadi distribusi yang dapat diprediksi dan merata, sehingga secara drastis menurunkan tingkat kesulitan kompresi. Inilah bagian yang paling inti dan paling mirip dari dua algoritma tersebut.

Penulis TurboQuant sendiri juga mengakui hal ini dalam balasan untuk review, namun dalam seluruh naskah makalah ia tidak pernah menjelaskan secara langsung keterkaitan metode ini dengan RaBitQ. Lebih penting lagi, konteksnya adalah: penulis kedua TurboQuant, Majid Daliri, pada Januari 2025 secara proaktif menghubungi tim Gao Jiangyang, meminta bantuan untuk debugging versi Python yang ia ubah dari kode sumber RaBitQ. Dalam email tersebut, ia merinci langkah-langkah replikasi dan informasi error—dengan kata lain, tim TurboQuant sangat memahami detail teknis RaBitQ.

Seorang reviewer anonim di ICLR juga secara independen menyoroti bahwa keduanya menggunakan teknik yang sama, dan meminta pembahasan yang memadai. Namun dalam versi final makalah, tim TurboQuant tidak menambahkan pembahasan; malah memindahkan deskripsi RaBitQ di badan utama (yang sebelumnya pun sudah tidak lengkap) ke bagian lampiran.

Tuduhan 2: tanpa dasar menyebut teori pihak lain “suboptimal”.

Makalah TurboQuant langsung memberi RaBitQ label “teori suboptimal”, dengan alasan analisis matematis RaBitQ “cukup kasar”. Namun Gao Jiangyang menunjukkan bahwa versi paper yang diperluas dari RaBitQ sudah membuktikan secara ketat bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini dipublikasikan di konferensi teratas ilmu komputer teoretis.

Pada Mei 2025, tim Gao Jiangyang pernah menjelaskan optimalitas teoretis RaBitQ secara rinci melalui beberapa ronde email. Daliri, penulis kedua TurboQuant, mengonfirmasi bahwa ia sudah memberi tahu seluruh penulis. Tetapi pada akhirnya, makalah tetap mempertahankan istilah “suboptimal” tanpa memberikan argumen bantahan apa pun.

Tuduhan 3: dalam perbandingan eksperimen, “tangan kiri mengikat, tangan kanan memegang pisau”.

Ini adalah bagian yang paling “mematikan” dari seluruh naskah. Gao Jiangyang menyatakan bahwa dalam eksperimen perbandingan kecepatan, makalah TurboQuant menumpuk dua kondisi yang tidak adil:

Pertama, RaBitQ resmi menyediakan kode C++ yang dioptimalkan (secara default mendukung paralel multi-thread), tetapi tim TurboQuant tidak menggunakannya, melainkan memakai versi Python yang mereka terjemahkan untuk menguji RaBitQ. Kedua, saat menguji RaBitQ, digunakan CPU single-core dan multi-thread dimatikan, sedangkan TurboQuant menggunakan NVIDIA A100 GPU.

Dua kondisi tersebut bila digabungkan menghasilkan efek: pembaca melihat kesimpulan “RaBitQ lebih lambat beberapa orde besaran daripada TurboQuant”, namun tidak diberi tahu bahwa kesimpulan itu didasarkan pada premis bahwa tim Google terlebih dahulu “mengikat tangan dan kaki” lawannya sebelum balapan dijalankan. Makalah tidak mengungkap secara memadai perbedaan kondisi eksperimen ini.

Respons Google: “Rotasi acak” adalah teknik umum, tidak mungkin mengutip semuanya

Menurut pengungkapan Gao Jiangyang, dalam balasan email tim TurboQuant pada Maret 2026 disebutkan: “penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss sudah merupakan teknik standar di bidang ini, kami tidak mungkin mengutip setiap makalah yang memakai metode-metaan ini.”

Tim Gao Jiangyang menilai itu sebagai pengelabuan konsep: bukanlah persoalan apakah perlu mengutip semua makalah yang pernah menggunakan rotasi acak, melainkan RaBitQ adalah pekerjaan pertama yang menggabungkan metode ini dengan kompresi vektor pada pengaturan masalah yang benar-benar sama, sekaligus membuktikan sifat optimalnya; karena itu, makalah TurboQuant seharusnya menggambarkan hubungan keduanya secara akurat.

Akun X resmi Stanford NLP Group mentransfer ulang pernyataan Gao Jiangyang. Tim Gao Jiangyang telah memublikasikan komentar terbuka di platform ICLR OpenReview, dan mengajukan keluhan resmi kepada ketua konferensi ICLR serta komite etika; selanjutnya mereka juga akan memublikasikan laporan teknis terperinci di arXiv.

Blogger teknis independen Dario Salvati memberikan penilaian yang relatif netral dalam analisisnya: TurboQuant memang memiliki kontribusi yang nyata pada metode matematis, tetapi hubungan dengan RaBitQ jauh lebih erat daripada yang digambarkan dalam makalah.

Nilai pasar 90 miliar dolar AS menguap: kontroversi makalah menumpuk kepanikan pasar

Timeline terjadinya kontroversi akademik ini sangatlah sensitif. Setelah Google mempublikasikan TurboQuant melalui blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami aksi jual yang hebat. Menurut laporan berbagai media seperti CNBC, saham Micron Technologies turun selama enam hari perdagangan berturut-turut, dengan penurunan kumulatif lebih dari 20%; SanDisk turun 11% dalam satu hari; SK Hynix Korea turun sekitar 6%, Samsung Electronics turun hampir 5%, dan Kioxia Jepang turun sekitar 6%. Logika kepanikan pasar sederhana dan brutal: kompresi perangkat lunak dapat menurunkan kebutuhan memori inferensi AI hingga 6 kali, sehingga prospek permintaan chip penyimpanan akan diturunkan secara struktural.

Analis Morgan Stanley Joseph Moore membantah logika tersebut dalam laporan riset 26 Maret, mempertahankan rating “beli” untuk Micron dan SanDisk. Moore menunjukkan bahwa kompresi TurboQuant hanya mengompresi KV Cache jenis cache tertentu, bukan keseluruhan penggunaan memori, dan menyebutnya sebagai “peningkatan produktivitas yang normal.” Analis Bank of America Andrew Rocha juga mengutip paradoks Jevons: peningkatan efisiensi menurunkan biaya, yang justru dapat mendorong penyebaran AI dalam skala yang lebih besar, sehingga pada akhirnya meningkatkan kebutuhan memori.

Makalah lama, kemasan baru: risiko rantai penularan riset AI ke narasi pasar

Menurut analisis blogger teknis Ben Pouladian, makalah TurboQuant sebenarnya sudah dipublikasikan secara terbuka sejak April 2025, bukan riset baru. Pada 24 Maret, Google memaketkan ulang dan mempromosikannya kembali melalui blog resmi, tetapi pasar justru menilainya sebagai terobosan baru. Strategi promosi “makalah lama, rilis baru” ini, ditambah potensi adanya bias eksperimen dalam makalah, mencerminkan risiko sistematis dalam rantai penularan riset AI dari jurnal akademik ke narasi pasar.

Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim mencapai peningkatan performa “beberapa orde besaran”, hal pertama yang perlu dipertanyakan adalah apakah kondisi pembandingnya adil.

Tim Gao Jiangyang telah menyatakan dengan jelas bahwa mereka akan terus mendorong penyelesaian resmi atas masalah tersebut. Pihak Google belum memberikan respons resmi terhadap tuduhan spesifik dalam surat terbuka tersebut.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan