Pembantaian saham memori sebesar 900 miliar dolar dalam makalah AI Google, ternyata diduga melakukan kecurangan akademik

Bermain saham, lihatlah laporan riset analis Jin Qilin, berwibawa, profesional, tepat waktu, menyeluruh, membantu Anda menggali peluang bertema dengan potensi!

(Sumber: Mesin Hati Pro)

Editor|Ze Nan, Yang Wen

Tak disangka, kali ini guncangan besar-besaran di pasar malah memunculkan skandal akademik yang cukup heboh.

Pada Jumat malam minggu ini, kasus pelanggaran etika akademik Google menjadi sorotan utama di kalangan AI.

Hoshi Jianyang, seorang pascasarjana doktoral dari ETH Zurich, memublikasikan sebuah artikel di Zhihu, yang menyatakan bahwa dalam paper Google Research berjudul 「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」 terdapat masalah serius pada deskripsi algoritma kuantisasi vektor RaBitQ yang sudah ada, perbandingan hasil teoretis, dan perbandingan eksperimen—serta bahwa masalah terkait sudah pernah secara jelas ditunjukkan sebelum paper tersebut dikirim, namun dengan sengaja diabaikan oleh pihak penulis.

Sebagai riset AI yang mampu membalikkan logika perusahaan “perusahaan garis utama” dalam satu hamparan, kadar TurboQuant di industri tampaknya tak perlu diragukan. Namun siapa sangka, paper level top conference ICLR yang didorong Google hingga menjadi “berhala,” dengan eksposur skala jutaan, ternyata fondasi teknis intinya justru terjebak dalam kabut dugaan “plagiarisme”.

Pemicu gejolak saham memori: TurboQuant

Paper TurboQuant Google baru-baru ini menjadi viral di bidang riset AI. Paper yang diterima oleh top conference ICLR 2026 ini memperkenalkan sebuah algoritme kompresi, yang mengklaim mampu mengurangi setidaknya 6 kali penggunaan memori KV cache model bahasa besar, meningkatkan kecepatan hingga 8 kali, dan dengan presisi tanpa kehilangan (zero-loss).

TurboQuant dipublikasikan pada platform preprint arXiv pada April 2025, diterima ICLR 2026 pada Januari 2026, dan pada 24 Maret diperkenalkan melalui blog riset Google yang memicu perhatian besar-besaran.

Jumlah tayangan postingan promosi Google di X mencapai lebih dari sepuluh juta.

Dalam inferensi model AI skala besar, setiap kali AI menghasilkan sebuah kata baru, ia perlu “meninjau” riwayat percakapan (konteks). Bagian ini disimpan di KV cache. Oleh karena itu, penggunaan memori KV cache sering menjadi bottleneck terbesar yang membatasi kecepatan dan biaya model besar. Metode kompresi ekstrem tanpa kehilangan yang diajukan TurboQuant efeknya mengejutkan: karena dapat secara drastis mengurangi sumber daya perangkat keras yang dibutuhkan untuk menjalankan model besar, ia langsung menantang ekspektasi pasar terhadap pertumbuhan eksponensial chip memori.

Pada hari yang sama ketika blog Google dipublikasikan, saham memori AS jatuh secara kolektif: SanDisk sempat turun 6,5%, Seagate Technology turun lebih dari 5%, Western Digital turun lebih dari 4%, Micron Technology turun 4%. Nilai kapitalisasi pasar yang menguap dalam sehari mencapai lebih dari 90 miliar dolar AS

Teknologi yang digembar-gemborkan habis-habisan oleh Google ini sebenarnya bagaimana caranya? Secara sederhana, ia menyelesaikan kebuntuan “konsumsi memori” dengan serangkaian metode yang cermat dan presisi.

TurboQuant mencapai tujuan ini melalui kompresi dua tahap: tahap pertama menggunakan mekanisme “random rotation” dan PolarQuant untuk memetakan vektor berdimensi tinggi ke koordinat koordinat kutub, sehingga menghasilkan kompresi ekstrem; tahap kedua menggunakan transformasi Quantized Johnson-Lindenstrauss (QJL), dengan memakai ruang hanya 1 bit untuk mengoreksi bias pada perhitungan inner product.

Namun justru bagian teknologilah yang menjadi pemantik skandal akademik.

Dokter Hoshi Jianyang dari ETH Zurich mengemukakan bukti bahwa mekanisme inti yang disebut “revolusioner” oleh Google bukanlah ciptaan Google; mekanisme itu sudah sepenuhnya diajukan oleh timnya dua tahun sebelumnya.

Yang lebih membuat marah adalah, dalam paper-nya, Google sengaja “menghindari” dan “meredam” teknologi yang lebih dulu ada.

Penulis RaBitQ mempertanyakan secara terbuka:

Metode inti TurboQuant sudah ada dua tahun lalu

Seri paper RaBitQ diterbitkan pada 2024, mengusulkan metode kuantisasi vektor berdimensi tinggi, dan secara teoretis membuktikan bahwa ia mencapai batas kesalahan asimtotik optimal yang diberikan oleh konferensi top ilmu komputer.

RaBitQ dan versi perluasannya masing-masing diterbitkan pada konferensi top SIGMOD 2024 dan SIGMOD 2025.

Salah satu gagasan inti RaBitQ adalah menerapkan random rotation (random rotation / Johnson-Lindenstrauss transformasi) pada vektor input sebelum kuantisasi. Dengan memanfaatkan sifat distribusi koordinat setelah rotasi, dilakukan kuantisasi vektor, sehingga secara teori mencapai batas kesalahan yang optimal.

Sementara itu, inti metode TurboQuant juga sama: menerapkan random rotation (Johnson-Lindenstrauss transformasi) pada vektor input sebelum kuantisasi. Bahkan poin ini disebutkan secara langsung oleh penulis TurboQuant sendiri dalam balasan jawaban tinjauan ICLR.

Namun, paper TurboQuant sepanjang prosesnya dengan sengaja menghindari kaitan langsung secara metode dengan RaBitQ. Sebaliknya, di bagian badan paper, RaBitQ dideskripsikan sebagai grid-based PQ, dan dalam deskripsi tersebut langkah random rotation inti di RaBitQ diabaikan, sehingga secara sengaja mengaburkan hubungan “turunan” di antara keduanya.

Penulis kedua TurboQuant, Majid Daliri, sejak Januari 2025 pun pernah secara proaktif menghubungi Hoshi Jianyang, meminta bantuan untuk melakukan debugging terhadap kode RaBitQ yang ia replika sendiri menggunakan Python. Ini menunjukkan bahwa tim TurboQuant sangat paham detail teknis RaBitQ.

Kalau sudah tahu dan sudah meminta petunjuk dari penulis aslinya, mengapa dalam paper final tidak dilakukan sitasi yang semestinya dan perbandingan yang objektif?

Tim Hoshi Jianyang, setelah menemukan masalah-masalah tersebut, dengan sikap ketat dalam dunia akademik, sejak Mei 2025 melakukan beberapa kali komunikasi pribadi melalui email dengan tim TurboQuant, dan secara tegas menunjuk kesalahan faktual di dalamnya.

Namun tim TurboQuant menolak perbaikan dengan alasan, “Random rotation sudah menjadi standar teknis di bidang ini, jadi kami tidak mungkin mengutip setiap paper yang menggunakan metode tersebut.” Setelah itu, paper ini tidak hanya didorong ke ICLR 2026, tetapi juga menjadi fokus perhatian global.

Jika narasi akademik seperti ini tidak dikoreksi, maka ia akan perlahan berubah menjadi konsensus. Tim Hoshi Jianyang akhirnya turun ke arena dan mencantumkan beberapa tuduhan.

Tiga tuduhan spesifik

Dalam artikelnya, Hoshi Jianyang mencantumkan tiga masalah spesifik.

Pertama, penghindaran sistematis atas kemiripan teknologi.

TurboQuant tidak hanya gagal membahas secara langsung hubungan struktural antara kedua metode; bahkan memindahkan deskripsi RaBitQ yang sebelumnya tidak lengkap di bagian badan paper ke lampiran. Langkah ini bahkan terjadi setelah reviewer sudah dengan jelas menunjukkan, “RaBitQ and variants are similar to TurboQuant in that they all use random projection” dan meminta pembahasan yang cukup.

Balasan penulis TurboQuant menyatakan, “Penggunaan random rotation dan Johnson-Lindenstrauss transformasi sudah menjadi teknik standar di bidang ini, jadi kami tidak mungkin mengutip setiap paper yang memakai metode-methode tersebut.”

Tim Hoshi Jianyang berpendapat bahwa tanggapan ini mengalihkan konflik. Sebagai pekerjaan perintis yang pertama kali menggabungkan random rotation (Johnson-Lindenstrauss transformasi) dengan kuantisasi vektor dalam pengaturan masalah yang sama, serta membangun jaminan teoretis yang optimal, RaBitQ seharusnya dideskripsikan secara akurat di dalam paper, dan hubungan antara RaBitQ dengan metode TurboQuant harus dibahas secara memadai.

Kedua, deskripsi keliru mengenai hasil teoretis RaBitQ.

Paper TurboQuant mengkualifikasi jaminan teoretis RaBitQ sebagai “suboptimal” dan mengaitkannya pada “loose analysis”, namun tidak memberikan turunan, perbandingan, maupun bukti apa pun.

Faktanya, pada Theorem 3.2 dalam paper perluasan RaBitQ (arXiv:2409.09913), batas kesalahan RaBitQ sudah dibuktikan secara ketat mencapai batas kesalahan asimtotik optimal yang diberikan oleh paper konferensi top ilmu komputer (Alon-Klartag, FOCS 2017). Karena hasil inilah, tim Hoshi Jianyang diundang untuk memberikan laporan di Workshop konferensi top ilmu komputer teoretis FOCS.

Pada Mei 2025, tim Hoshi Jianyang melakukan beberapa putaran diskusi teknis detail melalui email dengan penulis kedua TurboQuant, Majid Daliri, dan secara bertahap mengklarifikasi interpretasi keliru tersebut satu per satu. Majid Daliri juga menyatakan secara jelas bahwa ia telah memberi tahu semua co-author. Namun kualifikasi keliru ini, selama seluruh proses paper mengalami review lengkap, diterima, hingga promosi besar-besaran, tidak pernah diperbaiki.

Ketiga, sengaja menciptakan kondisi eksperimen yang tidak adil.

Saat menguji kecepatan RaBitQ, paper TurboQuant tidak menggunakan implementasi resmi open-source C++; sebaliknya ia memakai versi Python yang diterjemahkan sendiri oleh Majid Daliri, serta membatasi RaBitQ dijalankan pada single-core CPU dengan multi-threading dimatikan, sementara TurboQuant sendiri diuji menggunakan NVIDIA A100 GPU. Dua lapisan kondisi tidak adil yang bersifat sistematis ini tidak diungkap secara jelas dalam paper.

Majid Daliri sendiri, dalam email Mei 2025, pernah mengakui adanya batasan single-core. Namun paper tetap menampilkan kepada pembaca kesimpulan bahwa “RaBitQ lebih lambat beberapa orde besarnya dibanding TurboQuant” yang dihasilkan dari kondisi tersebut, tanpa menambahkan penjelasan apa pun.

Memilih untuk bersuara secara publik

Hoshi Jianyang menyatakan bahwa mereka mengetahui pada November 2025 bahwa TurboQuant mengajukan ke ICLR 2026, lalu segera menghubungi Chairs Program Committee ICLR, tetapi tidak mendapat tanggapan.

Setelah paper secara resmi diterima pada Januari 2026, Google mulai melakukan promosi besar-besaran melalui jalur resmi, dan jumlah pembacaan konten tersebut di media sosial dengan cepat mencapai puluhan juta kali.

Pada Maret 2026, tim Hoshi Jianyang kembali secara formal mengirim surat kepada seluruh penulis TurboQuant, meminta penjelasan dan koreksi. Respons yang diterima saat ini berasal dari penulis pertama, Amir Zandieh, yang berjanji akan memperbaiki masalah nomor dua dan nomor tiga setelah konferensi ICLR selesai, tetapi menolak membahas sama sekali masalah kemiripan teknis.

Hoshi Jianyang telah mempublikasikan komentar publik di platform ICLR OpenReview, dan mengajukan keluhan formal yang memuat bukti lengkap kepada ICLR General Chairs, PC Chairs, dan Code and Ethics Chairs. Ia juga menyatakan bahwa ia akan memublikasikan laporan teknis rinci tentang TurboQuant dan RaBitQ di arXiv, serta mempertahankan opsi untuk menyampaikan lebih lanjut kepada institusi terkait.

Di bagian akhir, ia menulis: “Sebuah paper didorong oleh Google ke publik dengan eksposur puluhan juta. Dalam skala seperti ini, narasi yang salah dalam paper tidak perlu disebarkan secara aktif—cukup karena tidak dikoreksi, ia akan otomatis menjadi konsensus.

Saat ini, klaim yang diajukan oleh Hoshi Jianyang dkk telah mendapat dukungan dari banyak pihak.

Banyak orang mengatakan bahwa praktik seperti ini oleh Google dalam riset AI bukanlah pertama kalinya.

Mungkin Google dan pihak resmi ICLR perlu memberikan penjelasan.

Referensi:

Berlimpah informasi, interpretasi yang akurat—tersedia di aplikasi Sina Finance

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan