Google kembali mengeluarkan "klarifikasi teknis", memicu kontroversi terkait paper yang menyebabkan keruntuhan saham penyimpanan global

robot
Pembuatan abstrak sedang berlangsung

Tanya AI · Apakah Klarifikasi Teknis TurboQuant Bisa Meredakan Kontroversi Akademik?

1 April, setelah diam selama hampir seminggu, tim penulis makalah algoritma kompresi kontroversial TurboQuant dari Google akhirnya merespons. Namun, “klarifikasi teknis” terbaru ini tampaknya belum mampu meredakan kontroversi, menanggapi tuduhan “kesamaan teknologi inti”, Google berpendapat bahwa rotasi acak adalah teknik standar, dan menganggap kesalahan dalam benchmark eksperimen “tidak penting” bagi fakta.

Pada minggu terakhir Maret, makalah yang dipromosikan secara besar-besaran di blog resmi Google ini pernah menghancurkan saham chip penyimpanan global sendirian, dengan nilai pasar Micron, SK Hynix, Samsung Electronics, dan lainnya menguap lebih dari 90 miliar dolar AS. Makalah tersebut menunjukkan bahwa algoritma kompresi TurboQuant mampu mengurangi setidaknya 6 kali lipat penggunaan memori cache KV dari model bahasa besar, meningkatkan kecepatan hingga 8 kali lipat, dan tanpa kehilangan akurasi.

Kepanikan di Wall Street adalah: jika perangkat lunak dapat mengompresi kebutuhan memori AI sebanyak 6 kali, logika pertumbuhan perangkat keras chip harus ditulis ulang.

Namun, perubahan cepat datang. Pada 27 Maret, penulis RaBitQ, postdoktor dari ETH Zurich, Gao Jianyang, memposting artikel panjang di Zhihu, menuduh tim Google mengalami masalah akademik sistemik, dan opini publik segera beralih ke pertanyaan tentang ketidakjujuran akademik Google.

Secara umum industri berpendapat bahwa RaBitQ adalah yang pertama mengusulkan metode orisinal, TurboQuant melakukan optimasi berdasarkan itu, tetapi tidak memberi kutipan dan penghormatan yang layak, bahkan melakukan penilaian yang tidak adil dan merendahkan.

Pada 1 April, menghadapi tuduhan dari luar, penulis kedua makalah, Majid Daliri, akhirnya muncul dan merilis sebuah “klarifikasi teknis” berisi empat poin di platform OpenReview.

Dalam hal kebaruan teknologi inti, Google berpendapat bahwa metode inti TurboQuant bukan berasal dari RaBitQ. Karena “rotasi acak adalah teknik standar dan umum dalam literatur kuantisasi,” yang sudah digunakan secara luas sebelum munculnya RaBitQ. Inovasi utama TurboQuant terletak pada derivasi distribusi koordinat setelah rotasi.

Namun, aturan di dunia akademik adalah: jika seseorang adalah yang pertama menggunakan “roda” pada “mobil” dan menciptakan mobil lengkap, maka penulis berikutnya yang mengutip dan berterima kasih adalah etika akademik dasar. Google meremehkan hasil pendahulu sebagai pengetahuan umum industri, setara dengan menurunkan kontribusi pelopor.

Kedua, mengenai tuduhan bahwa teori RaBitQ direndahkan sebagai “suboptimal,” penulis makalah mengakui bahwa mereka tidak memeriksa lampiran secara cermat, melewatkan satu faktor konstanta, sehingga menyimpulkan secara ceroboh, “mengakibatkan kami awalnya dengan jujur menggambarkan metode tersebut sebagai suboptimal.” Setelah mempelajari lebih teliti, mereka menyadari bahwa RaBitQ memang optimal, dan tim sedang memperbarui manuskrip TurboQuant.

Namun, sebuah makalah konferensi terkemuka yang menilai teori inti rekan sejawat secara negatif berdasarkan “tidak membaca lampiran” tentu saja menimbulkan keraguan terhadap kekuatan penjelasannya.

Pada poin ketiga, menanggapi tuduhan bahwa mereka “mengikat tangan dan kaki lawan saat berlomba,” Majid Daliri secara langsung menunjukkan bahwa bahkan jika dibandingkan dengan RaBitQ secara runtime diabaikan, pengaruh ilmiah dan efektivitas makalah tetap hampir sama. Karena kontribusi utama TurboQuant adalah trade-off kualitas kompresi, bukan percepatan tertentu.

Sebelumnya, Gao Jianyang mengungkapkan dalam surat terbuka bahwa tim Google menguji RaBitQ dengan CPU single-core dan menonaktifkan multithreading, sementara saat menguji TurboQuant menggunakan GPU Nvidia A100. Meskipun tim menyatakan bahwa kecepatan bukan fokus utama, makalah tetap menempatkan kecepatan sebagai salah satu poin jual utama.

Akhirnya, dalam tanggapan mereka, Google menyiratkan bahwa pihak lain “berniat buruk,” menunjukkan bahwa makalah ini sudah dipublikasikan di arXiv sejak April 2025, dan pihak lawan memiliki waktu hampir satu tahun untuk mengajukan pertanyaan melalui jalur akademik, tetapi baru menghebohkan setelah makalah ini mendapatkan perhatian luas.

Menurut tanggapan Gao Jianyang sebelumnya, sejak Mei 2025, kedua belah pihak berkomunikasi secara pribadi melalui email, dan pada November 2025 mereka juga menghubungi panitia ICLR, tetapi tidak mendapatkan respons yang memadai. Baru setelah Google secara resmi mempublikasikan makalah ini dengan eksposur besar-besaran, koreksi akademik menjadi sangat mendesak.

Di OpenReview, ada peneliti yang berkomentar bahwa ini adalah masalah serius yang layak mendapatkan perhatian lebih. “Melihat orang yang melakukan pekerjaan dasar secara nyata diabaikan, sementara organisasi besar dan berpengaruh mempromosikan hasil mereka secara besar-besaran, ini sangat menyebalkan.” Dalam hal ini, rasanya lebih seperti PR dari perusahaan besar daripada ilmu pengetahuan murni.

Selain itu, reviewer makalah TurboQuant juga menyatakan sikap, mengaku bahwa karena analisis teori dan hasil eksperimen, mereka memberikan penilaian tinggi terhadap makalah ini.

“Namun saya juga secara tegas menunjukkan bahwa RaBitQ dan TurboQuant sama-sama menggunakan rotasi acak, dan meminta penulis TurboQuant membandingkan bagaimana perbedaan desain antara TurboQuant dan RaBitQ mempengaruhi performa.” Reviewer tersebut menyatakan bahwa praktik akademik yang benar adalah membahas secara mendalam perbedaan antara RaBitQ dan TurboQuant dalam makalah, tetapi saat review, “saya terkejut menemukan bahwa RaBitQ hanya disebut sekali di bagian eksperimen utama makalah.”

Tak dapat disangkal, TurboQuant memiliki potensi komersial dari segi teknologi. Seorang master AI di Zhihu menganalisis bahwa dalam skenario inferensi model besar, penggunaan memori cache KV secara langsung menentukan jumlah permintaan yang dapat diproses secara bersamaan oleh satu kartu, yang merupakan indikator ekonomi utama bagi penyedia layanan inferensi. Dengan kartu yang sama, jika concurrency meningkat 6 kali, biaya inferensi per permintaan secara teoritis dapat turun menjadi sepertiganya. Bagi perusahaan AI yang memproses miliaran API setiap hari, ini akan menjadi pengurang biaya besar, dan inilah penyebab gejolak pasar saham kali ini.

Makalah Google ini akan dipresentasikan di konferensi pembelajaran mesin top ICLR 2026 pada akhir April, tetapi tampaknya tim harus melewati kontroversi akademik ini terlebih dahulu. Bagaimana akhir dari gelombang ini masih harus kita tunggu dan lihat.

(Artikel ini berasal dari First Financial)

Baca juga:

Tim TurboQuant diduga melakukan pelanggaran akademik? Google sudah merespons, tetapi kontroversinya malah semakin besar

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan