Pendiri OpenAI Mengklaim $110 Miliar Masih Tidak Bisa Memenuhi Permintaan, Pelatihan Awal Beralih ke Biaya Optimisasi Bersama

robot
Pembuatan abstrak sedang berlangsung

Menurut pemantauan oleh 1M AI News, Greg Brockman, salah satu pendiri OpenAI, menyoroti lompatan dalam kemampuan pemrograman AI yang diperkirakan terjadi pada Desember 2025 selama sebuah wawancara. Ia menggunakan prompt uji yang telah ia simpan selama bertahun-tahun untuk mengukur kemajuan: meminta AI membangun sebuah situs web yang memakan waktu berbulan-bulan untuk diselesaikannya saat ia masih belajar pemrograman. Sepanjang tahun 2025, tugas ini membutuhkan beberapa prompt dan sekitar empat jam untuk dikerjakan; pada Desember, tugas tersebut dapat diselesaikan dengan satu prompt saja dan dengan kualitas yang tinggi. Ia menyatakan bahwa model baru memungkinkan AI melompat dari “mampu menyelesaikan sekitar 20% tugas” menjadi “sekitar 80%”, sebuah perubahan yang memaksa semua orang untuk “menata ulang alur kerja di sekitar AI.” Terkait alokasi pendanaan sebesar $110 miliar, Brockman menyamakan daya komputasi dengan “merekrut tenaga penjualan”: selama produk memiliki saluran penjualan yang dapat diskalakan, merekrut lebih banyak tenaga penjualan dapat menghasilkan lebih banyak pendapatan. Daya komputasi bukanlah pusat biaya, melainkan pusat pendapatan. Ia mengingat percakapan dengan timnya menjelang perilisan ChatGPT: “Mereka bertanya, ‘Berapa banyak daya komputasi yang harus kami beli?’ Saya berkata, ‘Semuanya.’ Mereka menjawab, ‘Tidak, tidak, tidak, sungguh—berapa banyak yang harus kami beli?’ Saya berkata, ‘Apa pun cara kita membangunnya, kita tidak akan bisa mengejar permintaan.’ Penilaian ini masih berlaku sampai hari ini, dan pengadaan daya komputasi perlu dikunci 18 hingga 24 bulan sebelumnya. Mengenai cara memanfaatkan daya komputasi ini, Brockman mengungkapkan bahwa OpenAI kini tidak lagi hanya mengejar skala terbesar prapelatihan, melainkan secara bersama-sama mengoptimalkan kapabilitas prapelatihan dan biaya inferensi: ‘Anda tidak harus membuatnya semaksimal mungkin, karena Anda juga perlu mempertimbangkan banyak sekali skenario penggunaan inferensi di hilir; yang benar-benar Anda inginkan adalah solusi optimal dari kecerdasan dikalikan biaya.’ Namun, ia dengan tegas menolak gagasan bahwa ‘prapelatihan tidak lagi penting’, percaya bahwa semakin cerdas model fondasinya, semakin tinggi efisiensi pada tahap reinforcement learning dan inferensi berikutnya, dan bahwa masih ada ‘kebutuhan absolut’ akan GPU Nvidia untuk mendukung pelatihan terpusat skala besar.”

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan