Google AI yang menyimpan saham sebesar 90 miliar dolar AS dan terkait makalah penelitian, dituduh melakukan kecurangan eksperimen

Penulis artikel asli: 深潮 TechFlow

Sebuah artikel dari Google yang mengklaim “memampatkan penggunaan memori AI hingga 1/6” pekan lalu memicu saham chip penyimpanan global seperti Micron dan SanDisk mengalami penguapan nilai pasar lebih dari 90 miliar dolar AS.

Namun baru dua hari setelah publikasi makalah, pihak yang “dikalahkan” oleh algoritme tersebut—seorang pascasarjana doktoral dari ETH Zurich, Gao Jianyáng, merilis surat terbuka berdurasi ribuan kata. Ia menuduh tim Google dalam eksperimen menggunakan skrip Python dengan CPU single-core untuk menguji pihak lawan, tetapi menggunakan GPU A100 untuk menguji diri mereka sendiri, dan menolak memperbaiki masalah tersebut meski sudah diberi tahu sebelum pengajuan. Di Zhihu, jumlah bacaan melonjak melewati 4 juta, akun resmi Stanford NLP ikut mentransfer, dan dunia akademik maupun pasar sekaligus bergetar.

Inti kontroversi ini sebenarnya tidak rumit: sebuah makalah AI conference teratas yang dipromosikan besar-besaran oleh Google secara resmi, dan secara langsung memicu kepanikan jual-beli saham sektor chip di seluruh dunia—apakah secara sistematis mendistorsi sebuah pekerjaan pendahuluan yang sudah diterbitkan, serta membentuk narasi keunggulan kinerja yang palsu melalui eksperimen yang sengaja dibuat tidak adil?

TurboQuant melakukan apa: menipiskan “kertas buram” AI hingga menjadi enam kali lebih tipis

Saat model bahasa besar menghasilkan jawaban, mereka perlu menulis sekaligus menoleh kembali untuk melihat konten yang sudah dihitung sebelumnya. Hasil antara ini disimpan sementara di memori video (VRAM); di industri, ini disebut “KV Cache” (cache kunci-nilai). Semakin panjang dialognya, semakin tebal “kertas buram” ini, konsumsi VRAM pun semakin besar, dan biaya juga meningkat.

Algoritme TurboQuant yang dikembangkan oleh tim riset Google memiliki nilai jual utama: memampatkan kertas buram tersebut menjadi 1/6 dari aslinya, sekaligus mengklaim tidak ada kehilangan akurasi dan peningkatan kecepatan inferensi hingga 8 kali. Makalah pertama kali dipublikasikan pada April 2025 di platform preprint arXiv, diterima di konferensi teratas bidang AI ICLR 2026 pada Januari 2026, dan pada 24 Maret dipaket ulang serta dipromosikan ulang oleh blog resmi Google.

Dari sisi teknis, gagasan TurboQuant bisa dipahami secara sederhana begini: pertama, gunakan transformasi matematika untuk “mencuci” data yang berantakan menjadi format yang seragam; lalu gunakan tabel kompresi optimal yang sudah dihitung sebelumnya untuk memampatkan setiap bagian; terakhir, gunakan mekanisme koreksi kesalahan 1-bit untuk memperbaiki deviasi komputasi yang disebabkan kompresi. Implementasi independen dari komunitas telah memverifikasi bahwa efek kompresinya pada dasarnya sesuai, dan kontribusi matematis pada tingkat algoritme memang benar-benar ada.

Kontroversi tidak terletak pada apakah TurboQuant bisa digunakan, melainkan pada apa yang dilakukan Google untuk membuktikan bahwa itu “jauh melampaui kompetitor”.

Surat terbuka Gao Jianyáng: tiga tuduhan, semuanya mengenai titik yang krusial

Pada malam 27 Maret pukul 10, Gao Jianyáng memublikasikan artikel panjang di Zhihu, sekaligus mengirimkan komentar resmi ke platform penelaahan ICLR OpenReview. Gao Jianyáng adalah penulis pertama algoritme RaBitQ; algoritme ini diterbitkan pada 2024 di konferensi teratas bidang basis data SIGMOD, dan menyelesaikan jenis masalah yang sama—kompresi efisien vektor berdimensi tinggi.

Tuduhannya terdiri dari tiga poin, dan masing-masing disertai catatan email serta bukti timeline.

Tuduhan satu: menggunakan metode inti orang lain, tetapi seluruh teks tidak menyebutnya.

Pada TurboQuant dan RaBitQ, terdapat satu langkah inti yang sama: sebelum memampatkan data, terlebih dahulu lakukan “rotasi acak” pada data. Langkah ini berfungsi mengubah data yang distribusinya tidak beraturan menjadi distribusi yang dapat diprediksi dan seragam, sehingga secara signifikan menurunkan kesulitan kompresi. Ini adalah bagian paling inti dari kedua algoritme, sekaligus yang paling dekat.

Penulis TurboQuant sendiri juga mengakui hal ini dalam jawaban terhadap penelaahan, tetapi dalam seluruh naskah makalah, ia tidak pernah menjelaskan secara langsung keterkaitan metode tersebut dengan RaBitQ. Latar belakang yang lebih penting adalah: penulis kedua TurboQuant, Majid Daliri, pada Januari 2025 secara proaktif menghubungi tim Gao Jianyáng, meminta bantuan untuk men-debug versi Python yang ia ubah berdasarkan kode sumber RaBitQ. Email tersebut menjelaskan secara rinci langkah-langkah replikasi dan informasi error—dengan kata lain, tim TurboQuant sangat paham detail teknis RaBitQ.

Seorang penelaah anonim di ICLR juga secara independen menunjukkan bahwa keduanya menggunakan teknik yang sama, dan meminta pembahasan yang memadai. Namun pada versi final makalah, tim TurboQuant tidak menambahkan pembahasan, malah memindahkan deskripsi RaBitQ yang (meski sudah tidak lengkap) awalnya ada di bagian utama ke lampiran.

Tuduhan dua: tanpa dasar, menyebut teori pihak lain “suboptimal”.

Makalah TurboQuant langsung memberi RaBitQ label “suboptimal” secara teoretis, dengan alasan analisis matematis RaBitQ “cukup kasar”. Namun Gao Jianyáng menyatakan bahwa versi diperluas dari makalah RaBitQ telah membuktikan secara ketat bahwa kesalahan kompresinya mencapai batas optimal secara matematis—kesimpulan ini diterbitkan di konferensi teratas ilmu komputer teoretis.

Pada Mei 2025, tim Gao Jianyáng melalui beberapa putaran email pernah menjelaskan secara detail optimalitas teori RaBitQ. Daliri, penulis kedua TurboQuant, mengonfirmasi bahwa ia telah memberi tahu seluruh penulis. Tetapi pada akhirnya makalah tetap mempertahankan pernyataan “suboptimal”, tanpa memberikan bukti bantahan apa pun.

Tuduhan tiga: dalam perbandingan eksperimen “tangan kiri diikat, tangan kanan memegang pedang”.

Ini adalah tuduhan yang paling mematikan dalam seluruh teks. Gao Jianyáng menyebutkan bahwa dalam eksperimen perbandingan kecepatan, makalah TurboQuant menumpuk dua kondisi yang tidak adil:

Pertama, RaBitQ secara resmi menyediakan kode C++ yang sudah dioptimalkan (secara default mendukung paralel multi-thread), tetapi tim TurboQuant tidak menggunakannya, melainkan memakai versi Python hasil terjemahan mereka untuk menguji RaBitQ. Kedua, saat menguji RaBitQ digunakan CPU single-core dan multi-thread dimatikan, sedangkan TurboQuant memakai NVIDIA A100 GPU.

Dua kondisi yang saling tumpang tindih ini menghasilkan efek: pembaca melihat kesimpulan “RaBitQ lebih lambat beberapa orde besaran dibanding TurboQuant”, tetapi tidak pernah tahu bahwa kesimpulan tersebut berangkat dari fakta bahwa tim Google mengikat tangan lawan terlebih dahulu sebelum lomba dijalankan. Dalam makalah, perbedaan kondisi eksperimen tersebut tidak diungkapkan secara memadai.

Respons Google: “Rotasi acak adalah teknik umum, tidak mungkin setiap makalah harus dikutip”

Menurut pengungkapan Gao Jianyáng, dalam balasan email tim TurboQuant pada Maret 2026 dikatakan: “Penggunaan rotasi acak dan transformasi Johnson-Lindenstrauss adalah teknik standar di bidang ini, dan kami tidak mungkin mengutip setiap makalah yang menggunakan metode-metode tersebut.”

Tim Gao Jianyáng menilai ini sebagai pengelabuan konsep: masalahnya bukan apakah harus mengutip semua makalah yang pernah memakai rotasi acak, melainkan fakta bahwa RaBitQ adalah pekerjaan paling awal yang menggabungkan metode tersebut dengan kompresi vektor dalam pengaturan masalah yang sepenuhnya sama, sekaligus membuktikan optimalitasnya; karena itu, makalah TurboQuant seharusnya menggambarkan hubungan keduanya dengan akurat.

Akun X Stanford NLP Group mentransfer pernyataan Gao Jianyáng. Tim Gao Jianyáng telah memublikasikan komentar terbuka di platform ICLR OpenReview, dan mengajukan keluhan resmi ke ketua konferensi ICLR serta komite etika; selanjutnya mereka juga akan memublikasikan laporan teknis rinci di arXiv.

Bloger teknis independen Dario Salvati memberikan penilaian yang relatif netral dalam analisisnya: TurboQuant memang memiliki kontribusi nyata pada metode matematis, tetapi hubungan dengan RaBitQ jauh lebih dekat daripada yang digambarkan dalam makalah.

Penguapan nilai pasar 90 miliar dolar AS: kontroversi makalah menumpuk kepanikan pasar

Waktu terjadinya kontroversi akademik ini sangatlah sensitif. Setelah Google mempublikasikan TurboQuant lewat blog resmi pada 24 Maret, sektor chip penyimpanan global mengalami penjualan besar-besaran. Menurut beberapa media seperti CNBC, Micron turun beruntun selama enam sesi perdagangan, dengan total penurunan lebih dari 20%; SanDisk turun 11% dalam satu hari; SK hynix di Korea turun sekitar 6%, Samsung Electronics turun hampir 5%, dan Kioxia Jepang turun sekitar 6%. Logika kepanikan pasar sederhana namun brutal: kompresi perangkat lunak dapat menurunkan kebutuhan memori inferensi AI hingga 6 kali, sehingga prospek kebutuhan untuk chip penyimpanan akan diturunkan secara struktural.

Analis Morgan Stanley Joseph Moore membantah logika tersebut dalam laporan riset pada 26 Maret, mempertahankan peringkat “tambah posisi” untuk Micron dan SanDisk. Moore menyatakan bahwa yang dikompresi oleh TurboQuant hanya KV Cache, yaitu jenis cache tertentu, bukan keseluruhan penggunaan memori, dan mengkategorikannya sebagai “peningkatan produktivitas yang normal”. Analis Wells Fargo Andrew Rocha juga mengutip paradoks Jevons: peningkatan efisiensi menurunkan biaya, yang justru dapat mendorong penerapan AI skala lebih besar, sehingga pada akhirnya menaikkan kebutuhan memori.

Makalah lama, kemasan baru: risiko rantai penularan riset AI ke narasi pasar

Menurut analisis bloger teknis Ben Pouladian, makalah TurboQuant sudah dipublikasikan sejak April 2025 dan bukan riset baru. Pada 24 Maret, Google memaket ulang serta mempromosikannya melalui blog resmi; namun pasar justru menilainya sebagai terobosan baru. Strategi promosi “makalah lama, publikasi baru” ini, ditambah kemungkinan adanya bias eksperimen dalam makalah, mencerminkan risiko sistematis saat riset AI menular dari makalah akademik ke rantai narasi pasar.

Bagi investor infrastruktur AI, ketika sebuah makalah mengklaim mencapai peningkatan kinerja “beberapa orde besaran”, hal pertama yang perlu ditanyakan adalah apakah kondisi perbandingan dasarnya adil.

Tim Gao Jianyáng telah menyatakan dengan jelas bahwa mereka akan terus mendorong penyelesaian masalah secara resmi. Pihak Google masih belum memberikan respons resmi atas tuduhan spesifik dalam surat terbuka tersebut.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan