Sebuah lelucon tentang "dua buku melatih AI" yang kebetulan menunjukkan bahwa kekuatan komputasi adalah kunci

robot
Pembuatan abstrak sedang berlangsung

Canda ini justru membongkar fantasi “data superminimal”

Elon Musk bercanda bahwa Grok dilatih dengan “hanya dua buku ini”, “beres”—typikal sindiran ala Musk. Ia sedang mengkritik fantasi semacam itu: bahwa tanpa komputasi skala besar pun, seseorang bisa membuat AI yang kompetitif. Realitanya, xAI tengah mendorong pelatihan di atas klaster GPU raksasa. Dua buku persis yang ia maksud tidak disebut (yang ini sebenarnya tidak terlalu penting), tetapi pesannya sangat jelas: di bidang yang masih didominasi oleh hukum skala, ia sedang mengejek narasi yang terlalu menyederhanakan.

Tsunami cuitan ini memicu reaksi yang terpolarisasi. Ada yang menganggapnya sebagai isyarat pelatihan yang efisien; ada pula yang melihat ini lebih seperti mengalihkan perhatian—yang xAI benar-benar lakukan adalah mendorong reinforcement learning skala besar di infrastruktur Colossus miliknya sendiri. Skor Grok (misalnya Grok 3 Think yang meraih 93.3% di AIME) berasal dari komputasi dan paradigma pelatihan, bukan dari “membaca dua buku sampul tipis”.

  • Banyak orang salah membaca lelucon ini: banyak balasan memahaminya sebagai sinyal adanya terobosan dalam efisiensi data. Bukan begitu. Metodologi yang xAI publikkan berpusat pada perluasan kemampuan penalaran melalui ekspansi RL, bukan pada pemampatan data pelatihan.
  • Para ahli serius tidak ikut menindaklanjuti: kurangnya dukungan yang sejalan dari peneliti kelas atas seperti Karpathy dan LeCun membuat istilah “data superminimal” tidak sampai menjadi arus utama. Satu cuitan saja tidak bisa menggerakkan konsensus industri tanpa verifikasi.
  • Benchmark lebih mampu menjelaskan masalah: Grok unggul di GPQA (84.6%) dan LiveCodeBench (79.4%), yang bisa ditelusuri kembali ke dividen efisiensi dari infrastruktur—sekitar perbaikan efisiensi 6 kali berarti deployment FLOPs yang lebih efisien, bukan karena membaca lebih sedikit buku.

Menang karena komputasi, “data superminimal” tidak bisa bertahan

Penyebaran cuitan ini memperlihatkan kesenjangan antara slogan (“cukup dua buku!”) yang mudah jadi viral dan “pegangan” yang benar-benar membangun model kuat (pelatihan besar-besaran di klaster yang sangat besar). Seiring pengawasan eksternal terhadap kepatuhan data pelatihan dan potensi kebocoran makin meningkat—misalnya catatan Stanford baru-baru ini mengenai fenomena model yang mengulang novel berhak cipta—hal ini makin penting.

xAI sedang memosisikan Grok 4 sebagai level agen penalaran yang paling kuat dengan menerapkan RL pada skala pelatihan pra-training. Berbeda dengan OpenAI dan Anthropic yang lebih berhati-hati, xAI sambil bercanda tentang “efisiensi” sekaligus benar-benar menyerahkan alat multimoda. Menafsirkan cuitan ini sebagai “open source” atau pandangan populer tentang “revolusi efisiensi” lebih banyak merupakan harapan emosional—putaran pendanaan Seri C sebesar 6 miliar dolar xAI sebagian besar diarahkan ke infrastruktur, bukan ke “penyederhanaan dataset”.

Ini juga menimbulkan ketidaksesuaian antara penetapan harga dan narasi. Jika pasar terlalu menitikberatkan efisiensi biaya, ia mudah mengabaikan bobot yang lebih tinggi dari benteng berbasis komputasi. xAI unggul secara relatif pada infrastruktur, sementara perusahaan seperti Meta jika tidak bisa mendapatkan ukuran RL dan komputasi pelatihan yang setara mungkin akan tertinggal dalam kedalaman penalaran.

Sisi Apa yang mereka lihat Dampak pada pemahaman industri Penilaian
Penggemar minimalisme Menganggap lelucon “2 buku” sebagai endorsement untuk pelatihan yang efisien Memperkuat ekspektasi bahwa “hukum skala bisa diakali” oleh pengembang independen Melebih-lebihkan—mengabaikan batasan keras berupa ambang komputasi bagi tim yang kekurangan dana
Kelompok praktis berbasis skala Fokus pada klaster Colossus xAI dan jalur RL Grok 3/4 Memperkuat konsensus “FLOPs mengungguli trik data”; pelanggan enterprise lebih menyukai penyedia dengan komputasi tinggi Lebih mendekati kenyataan—kelebihan sisi enterprise xAI dipandang rendah oleh pasar
Kelompok hati-hati Mencermati tidak adanya dukungan dari para ahli, dan keterkaitan yang lemah dengan benchmark seperti ARC-AGI-2 (Grok 4 pada 15.9%) Menghindari asumsi investasi yang salah akibat goyahnya narasi Kontrol yang wajar—risiko gelembung pembiayaan berbasis narasi relatif tinggi
Analis kompetitor Membandingkan integrasi toolchain Grok API dan masalah halusinasi kompetitor (ada perbaikan di versi 4.1) Mempercepat pemetaan strategi; tekanan multimoda seperti suara/video xAI menular ke kompetitor xAI makin menjauh; Anthropic bisa jadi terbatas pada ritme ekspansi RL

Kesimpulan: Variabel sebenarnya yang ditutupi oleh lelucon ini adalah keunggulan komputasi xAI. Pembangun yang tidak beralih ke RL yang bisa diskalakan sudah tertinggal; investor yang bertaruh pada komputasi dan benteng infrastruktur berada pada fase awal; pembeli enterprise yang sekarang menggunakan alat berbasis agen dari Grok akan punya keuntungan yang lebih besar dibanding lawan yang masih memercayai “mitos data superminimal”.

Kepentingan: Sedang
Kategori: Wawasan teknis, tren industri, dampak pasar

Penilaian: Saat ini memasuki momen narasi ini adalah “keuntungan awal” bagi pendanaan dan pembeli enterprise yang menaruh uang pada komputasi dan infrastruktur RL, sedangkan bagi pembangun yang masih bertahan pada rute data superminimal sudah “terlambat”. Pihak yang paling diuntungkan secara praktis adalah mereka yang menguasai atau mengakses klaster GPU skala besar dan stack rekayasa RL: pembangun infrastruktur dan dana jangka menengah paling diuntungkan, dan pembeli enterprise yang bersedia menerapkan toolchain agen Grok lebih awal juga unggul; trader jangka pendek memiliki keuntungan marjinal yang terbatas kecuali ada katalis pasokan komputasi yang jelas.

GROK-3,48%
XAI-0,66%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan