Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Wawancara Eksklusif Co-Founder OpenAI Terbaru: Setelah Penutupan Sora, Apa Langkah Selanjutnya ChatGPT?
Judul video: Presiden OpenAI Greg Brockman: Strategi AI, AGI, dan Super App
Pembuat video: Alex Kantrowitz
Editor: Peggy, BlockBeats
Catatan redaksi: Artikel ini diterjemahkan dari percakapan Greg Brockman, Presiden sekaligus salah satu pendiri OpenAI, di Big Technology Podcast. Program ini telah lama menyoroti perubahan pada AI, industri teknologi, dan struktur bisnis, dan menjadi jendela penting untuk menilai kondisi di garis depan Silicon Valley.
Dalam percakapan ini, Brockman tidak berhenti pada kemampuan model itu sendiri; ia justru menggeser pertanyaan lebih dulu: ketika kemampuan AI pada dasarnya sudah terbukti, industri selanjutnya akan memilih jalur bagaimana, merombak bentuk produk seperti apa, dan bagaimana menanggung dampak sistematis yang ditimbulkannya. Percakapan berfokus pada strategi produk OpenAI, “super app” yang akan segera dirilis, serta penilaiannya bahwa AI sedang memasuki “fase lepas landas”.
Percakapan ini bisa dipahami dari tiga sisi.
Pertama, konvergensi jalur.
Dari pembuatan video hingga model penalaran, dari langkah multi-arah hingga seleksi yang proaktif, pilihan OpenAI bukanlah sekadar penilaian keunggulan teknis, melainkan respons terhadap keterbatasan dunia nyata—daya komputasi menjadi bottleneck utama. Dalam kondisi sumber daya yang terbatas, jalur teknis mulai mengerucut ke dua arah yang paling memiliki efek pengungkit: asisten pribadi dan pemecahan masalah yang kompleks. Ini juga berarti logika kompetisi AI sedang beralih dari “bisa melakukan apa” menjadi “pertama-tama mengerjakan apa”.
Kedua, rekonstruksi bentuk.
Pengajuan “super app” pada dasarnya adalah lompatan pada bentuk produk. AI tidak lagi sekadar kumpulan alat yang terpisah, melainkan satu pintu masuk yang terpadu: AI memahami konteks, memanggil alat, menjalankan tugas, dan terus mengakumulasi memori lintas berbagai skenario. Dari ChatGPT hingga Codex, AI perlahan mengambil alih alur kerja penuh, sedangkan peran manusia turut bergeser dari pelaksana menjadi pengatur—menetapkan tujuan, membagi tugas, dan melakukan pengawasan.
Ketiga, perubahan ritme.
Jika dua tahun terakhir adalah fase pendakian kemampuan, maka yang sedang terjadi sekarang adalah “lepas landas”. Di satu sisi, kemampuan model melompat dari “membantu sekitar 20% pekerjaan” menjadi “mencakup sekitar 80% tugas”, yang langsung memicu rekonstruksi alur kerja; di sisi lain, AI juga ikut berpartisipasi dalam evolusinya sendiri (menggunakan AI untuk mengoptimalkan AI), ditambah sinergi dari chip, aplikasi, dan sisi perusahaan, sehingga membentuk loop percepatan berkelanjutan. AI tidak lagi teknologi tunggal, melainkan mulai menjadi mesin kunci yang mendorong pertumbuhan ekonomi.
Namun, di saat yang sama, muncul pula sekelompok pertanyaan lain secara bersamaan: ketidakpercayaan publik, ketidakpastian pekerjaan, kontroversi yang ditimbulkan pusat data, serta batas keamanan dan tata kelola. Jawaban yang diberikan Brockman tidak sepenuhnya berada di dalam ranah teknis. Ia lebih menekankan dua hal: pertama, risiko tidak bisa diselesaikan melalui “kontrol terpusat”; perlu fondasi infrastruktur sosial di sekitar AI, mirip sistem kelistrikan. Kedua, kemampuan individu sedang mengalami perubahan—yang benar-benar penting bukan lagi “bisa atau tidak menggunakan alat”, melainkan “apakah bisa mencapai tujuan sendiri dengan bantuan AI”.
Jika masalah masa lalu adalah “apa yang bisa dilakukan AI”, maka masalah sekarang sudah berubah menjadi: ketika AI mulai menyelesaikan sebagian besar hal untukmu, apa yang masih perlu kamu lakukan?
Berikut adalah isi asli (demi memudahkan pemahaman pembaca, isi aslinya telah disusun ulang):
TL;DR
AGI sudah masuk fase “jalur sudah jelas”: Greg Brockman (OpenAI联创)berpendapat bahwa model penalaran berbasis GPT sudah memiliki rute yang jelas menuju AGI, diperkirakan dapat diwujudkan dalam beberapa tahun, tetapi bentuknya masih akan “tidak merata” (jagged).
**Konvergensi strategi: dari eksplorasi multi-arah ke dua aplikasi inti: ** Dengan adanya batas daya komputasi, OpenAI akan memusatkan sumber daya pada “asisten pribadi” dan “pemecahan masalah kompleks”, bukan mendorong semua arah sekaligus (misalnya pembuatan video).
“Super app” akan menjadi bentuk pintu masuk AI: Obrolan, pemrograman, browser, dan pekerjaan berbasis pengetahuan akan diintegrasikan menjadi satu sistem terpadu; AI berubah dari alat menjadi “lapisan eksekusi”, sementara pengguna beralih menjadi “scheduler/pengatur”.
Perubahan kunci: AI mulai mengambil alih alur kerja, bukan sekadar membantu: Kemampuan model telah melonjak dari “menyelesaikan 20% tugas” menjadi “mampu menanggung 80%”, sehingga memaksa individu dan perusahaan untuk merombak cara kerja.
Daya komputasi menjadi bottleneck inti dan fokus persaingan: Permintaan AI jauh melampaui pasokan; batasan di masa depan bukan lagi kemampuan model, melainkan sumber daya komputasi. Pusat data dan infrastruktur menjadi variabel kunci.
“Lepas landas” AI (takeoff) sedang terjadi: Percepatan teknologi mandiri (AI mengoptimalkan AI) ditambah sinergi industri (chip, aplikasi, perusahaan) mendorong AI bergerak dari alat menjadi mesin penggerak pertumbuhan ekonomi.
Risiko terbesar bukan pada teknologi, melainkan pada tata kelola dan cara penggunaan: Masalah keamanan tidak bisa diselesaikan oleh satu pihak saja; perlu ekosistem terbuka dan infrastruktur sosial untuk menampungnya bersama.
Kemampuan inti individu sedang berubah: Daya saing masa depan tidak ada pada “eksekusi”, melainkan “menetapkan tujuan + mengelola sistem AI”. Penggunaan AI secara proaktif akan menjadi kemampuan dasar.
Ringkasan percakapan:
Alex (pembawa acara):
Hari ini kami mengundang pendiri sekaligus presiden OpenAI, Greg Brockman, untuk membahas peluang AI yang paling potensial, bagaimana OpenAI akan memanfaatkan peluang-peluang tersebut, serta gagasan “super app”. Greg hari ini juga datang ke studio kami.
Greg Brockman (OpenAI联创 & Presiden):
Senang bertemu denganmu, terima kasih atas undangannya.
Mengapa menghentikan Sora? Daya komputasi tidak cukup
Alex:
Pada titik waktu seperti ini, ini terdengar menarik. OpenAI sedang menunda pengembangan pembuatan video, dan memusatkan sumber daya ke sebuah “super app”—yang akan mengintegrasikan skenario bisnis dan pemrograman. Dari sudut pandang eksternal (termasuk saya), rasanya OpenAI sudah unggul di sisi konsumen, tetapi sekarang sedang menyesuaikan alokasi sumber daya. Jadi, apa yang sebenarnya terjadi?
Greg Brockman:
Dalam periode terakhir, kami terus mengembangkan teknologi deep learning ini untuk memverifikasi apakah ia benar-benar dapat menghasilkan dampak positif yang selama ini kami bayangkan—apakah ia bisa digunakan untuk membangun aplikasi yang benar-benar membantu orang-orang dan meningkatkan kehidupan mereka.
Sementara itu, kami juga mengerjakan jalur lain: men-deploy teknologi ini. Di satu sisi untuk mendukung jalannya bisnis, di sisi lain untuk lebih awal mengumpulkan pengalaman dunia nyata, sebagai persiapan saat teknologinya benar-benar matang.
Dan sekarang, kami sudah masuk ke tahap baru. Kami melihat bahwa teknologi ini memang layak. Kami berpindah dari “benchmark” dan beberapa demonstrasi kemampuan yang masih agak abstrak ke tahap baru—yakni harus menempatkannya di dunia nyata, agar ikut terlibat dalam pekerjaan aktual, dan berevolusi lebih lanjut melalui umpan balik pengguna.
Jadi, saya cenderung memahami perubahan ini sebagai: ini adalah pergeseran strategi yang digerakkan oleh perubahan tahap teknologi.
Ini bukan berarti kami berpindah dari “sisi konsumen” ke “sisi perusahaan”. Lebih tepatnya, kami sedang mengajukan pertanyaan: dalam kondisi sumber daya terbatas, aplikasi apa yang seharusnya menjadi prioritas utama? Karena kami tidak mungkin melakukan semuanya.
Aplikasi mana yang benar-benar bisa diterapkan, yang saling beresonansi dan menghasilkan dampak nyata? Jika kamu mencantumkan semua arah, dari sisi konsumen bisa dipecah menjadi banyak jenis: misalnya asisten pribadi—sebuah sistem yang benar-benar memahami kamu, selaras dengan tujuanmu, dan bisa membantu mewujudkan tujuan hidupmu; contoh lain adalah kreasi dan hiburan; serta masih banyak kemungkinan lainnya. Sedangkan di sisi perusahaan, jika dilihat dari level yang lebih tinggi, sebenarnya bisa diabstraksi menjadi satu hal: kamu memiliki tugas yang kompleks, bisakah AI membantumu menyelesaikannya?
Bagi kami, prioritas saat ini sangat jelas—hanya ada dua hal di urutan teratas: pertama, asisten pribadi; kedua, AI yang bisa membantumu menyelesaikan masalah kompleks.
Masalahnya adalah: daya komputasi yang kami miliki bahkan tidak cukup untuk menutup kedua hal ini. Begitu kamu menambahkan lebih banyak skenario aplikasi, maka mustahil untuk meliput semuanya. Jadi ini pada dasarnya penilaian yang realistis: teknologinya sedang cepat matang, dampaknya akan meledak, dan kami harus melakukan pilihan—memilih arah yang paling penting untuk benar-benar diwujudkan.
Alex:
Kamu sempat menyebut sebuah analogi, bahwa OpenAI seperti Disney: ada kemampuan inti, lalu bisa diperluas ke berbagai skenario. Disney punya Mickey Mouse, bisa membuat film, taman hiburan, Disney+. “Inti” OpenAI adalah model—bisa membuat video, membuat asisten, dan membuat aplikasi perusahaan.
Tapi sekarang tampaknya kalian tidak lagi berjalan jalur “perluasan menyeluruh” seperti itu, dan harus memilih?
Greg Brockman:
Justru saya merasa analogi itu semakin tepat sekarang. Tapi ada satu poin kuncinya: dari sudut pandang teknis, Sora (model video) dan GPT (model penalaran) sebenarnya berasal dari dua cabang teknologi yang berbeda. Cara pembuatannya pun benar-benar berbeda.
Masalahnya, pada tahap saat ini, mendorong dua pohon teknologi tersebut secara bersamaan sangatlah sulit, terutama dengan sumber daya yang terbatas. Jadi pilihan kami adalah: pada tahap ini, memusatkan sumber daya utama pada jalur GPT.
Tentu saja, ini tidak berarti kami menyerahkan cabang lain. Misalnya di bidang robotika, kami tetap melanjutkan riset terkait. Namun robotika itu sendiri masih berada pada tahap yang lebih awal; ia belum memasuki fase kematangan yang benar-benar “meledak”.
Sebaliknya, dalam setahun ke depan, kita akan melihat AI benar-benar “lepas landas” di bidang pekerjaan berbasis pengetahuan.
Dan perlu ditekankan bahwa jalur GPT tidak hanya soal “teks”. Misalnya interaksi suara dua arah (speech-to-speech), yang juga merupakan bagian dari jalur teknologi ini—ia akan membuat AI lebih bisa digunakan, lebih praktis. Kemampuan-kemampuan ini pada dasarnya masih berada dalam ekosistem model yang sama, hanya disetel dengan cara berbeda.
Namun jika kamu mengarah ke dua cabang teknologi yang benar-benar berbeda, maka dengan daya komputasi yang terbatas, akan sulit mempertahankan semuanya dalam jangka panjang. Dan daya komputasi dibatasi karena—kebutuhannya terlalu besar. Hampir setiap kali sebuah model dirilis, orang ingin menggunakannya untuk melakukan lebih banyak hal.
Alex:
Kalau begitu, kenapa kalian tidak memusatkan perhatian pada jalur “world model”? Misalnya model video perlu memahami hubungan antar objek, dan itu juga sangat penting untuk robotika. Selain itu, kemajuan Sora ternyata sangat cepat. Kenapa akhirnya memilih untuk bertaruh pada GPT?
Greg Brockman:
Masalah terbesar di bidang itu sebenarnya adalah: terlalu banyak peluang.
Kami sudah lama menemukan bahwa di OpenAI, selama sebuah ide masuk akal secara matematis, ide itu biasanya bisa “jalan” dan menghasilkan hasil yang cukup bagus. Ini menunjukkan kemampuan fondasi deep learning sangat kuat: ia dapat mengabstraksi aturan generatif dari data, lalu memindahkannya ke skenario baru. Hal ini bisa diterapkan di berbagai bidang—world model, penemuan sains, pemrograman, dan sebagainya.
Tapi kuncinya adalah: kita perlu melakukan pilihan.
Selama ini ada perdebatan tentang sejauh mana model berbasis teks bisa berjalan. Apakah ia benar-benar memahami dunia? Saya pikir pertanyaan itu sudah memiliki jawaban: model berbasis teks bisa melangkah sampai ke AGI.
Kami melihat jalurnya jelas; tahun ini juga akan ada model yang lebih kuat. Dan di dalam OpenAI, salah satu penderitaan terbesar kami adalah bagaimana mengalokasikan daya komputasi—masalah ini hanya akan semakin serius, bukan mereda. Jadi pada dasarnya ini bukan soal “jalur mana yang lebih penting”, melainkan soal waktu dan urutan.
Sekarang, beberapa aplikasi yang dulu kami anggap jauh, sudah mulai terasa dekat. Misalnya memecahkan masalah fisika yang belum terpecahkan. Kami baru-baru ini punya sebuah kasus: seorang fisikawan meneliti sebuah masalah itu sangat lama, lalu menyerahkannya kepada model; setelah 12 jam, kami memberi solusi. Ia mengatakan ini adalah pertama kalinya ia merasa sebuah model sedang “berpikir”. Bahkan masalah itu mungkin sesuatu yang tidak akan pernah bisa diselesaikan manusia, namun AI melakukannya.
Ketika kamu melihat hal seperti itu, satu-satunya pilihanmu adalah meningkatkan taruhan, bahkan melakukan tiga kali lipat. Karena itu berarti kita benar-benar dapat melepaskan potensi besar.
Jadi, bagi saya, ini bukanlah kompetisi antar arah, tetapi: apa misi OpenAI? Bagaimana membawa AGI ke dunia? Bagaimana membuatnya benar-benar memberi manfaat untuk semua orang? Dan kami sudah melihat jalur itu; kami tahu bagaimana mendorongnya.
Bertaruh pada GPT, bukan world model: pilihan jalur menuju AGI
Alex:
Baik, saya memang ingin kembali ke model generasi berikutnya yang baru saja kamu sebutkan. Tapi saya ingin menindaklanjuti dengan pertanyaan ini dulu.
Beberapa waktu lalu saya berbincang dengan Demis Hassabis dari Google DeepMind. Hal yang menarik dari komentarnya adalah: baginya, sesuatu yang paling mendekati AGI justru generator gambar mereka yang disebut Nano Banana.
Alasannya adalah: baik generator gambar maupun generator video pada dasarnya harus memahami hubungan interaksi antar objek untuk menghasilkan gambar dan video seperti itu—setidaknya butuh semacam pemahaman tentang bagaimana dunia bekerja.
Jadi apakah ini berarti ada risiko potensial? Ini adalah taruhan besar—jika ternyata benar, bukankah OpenAI yang terus menambah investasi pada pohon teknologi lain akan ketinggalan sesuatu?
Greg Brockman:
Kalau benar begitu, bagaimana? Saya punya dua jawaban.
Pertama, tentu saja ada kemungkinan seperti itu. Bidang ini memang seperti itu: pada akhirnya kamu harus memilih, dan kamu harus bertaruh. OpenAI sejak awal sudah melakukan itu: kami menilai apa jalur yang dipercaya menuju AGI, lalu memfokuskan secara sangat intens di sepanjang jalur tersebut. Seperti menambahkan vektor acak, hasil akhirnya mungkin mendekati nol; tetapi jika semua vektor diselaraskan, ia akan mendorongmu menuju arah yang jelas.
Tapi kedua, kemampuan generasi gambar juga merupakan salah satu kemampuan yang sangat populer di ChatGPT, dan kami terus berinvestasi serta memprioritaskan kemampuan itu. Kami mampu melakukan itu karena sebenarnya ia tidak termasuk cabang teknologi “world model” atau “model difusi”. Ia justru dibangun di atas arsitektur GPT. Jadi meskipun menghadapi distribusi data yang berbeda, di tingkat tumpukan teknologi inti yang lebih dalam, pada dasarnya masih menggunakan hal yang sama.
Dan justru inilah salah satu hal paling mengagumkan tentang AGI: kadang aplikasi yang tampak sangat berbeda—dari speech-to-speech, generasi gambar, pemrosesan teks, hingga penerapan teks itu sendiri dalam riset sains, pemrograman, dan berbagai skenario seperti informasi kesehatan pribadi—ternyata bisa ditampung dalam satu kerangka teknologi yang sama.
Jadi, dari sudut pandang teknis, satu hal yang terus dipikirkan saya dan tim adalah bagaimana menyatukan arah upaya kami semaksimal mungkin. Karena kami sungguh percaya bahwa teknologi ini akan menghasilkan peningkatan menyeluruh, bahkan mengangkat keseluruhan ekosistem ekonomi.
Namun urusannya skalanya terlalu besar. Tentu saja kami tidak mungkin menyelesaikan semuanya, tetapi kami bisa menyelesaikan bagian yang menjadi tanggung jawab kami.
Alex:
Itu jawaban untuk makna “general” dalam Artificial General Intelligence (AGI).
Greg Brockman:
Ya, betul. Itulah “G”-nya; dan itulah artinya.
Alex:
Berbicara tentang “kesatuan”, seperti apa wujud super app itu?
Greg Brockman:
Super app yang saya bayangkan adalah—
Alex:
Ia akan menggabungkan obrolan, pemrograman, browser, dan hal-hal seperti ChatGPT, benar?
Greg Brockman:
Ya. Yang ingin kami buat adalah sebuah aplikasi yang ditujukan untuk pengguna akhir, agar kamu benar-benar merasakan kekuatan AGI—yakni “generalitasnya”.
Kalau kamu memikirkan produk obrolan saat ini, saya rasa ia akan berevolusi menjadi asisten pribadimu, dan “personal API” kamu—AI yang benar-benar memikirkan kamu. Ia tahu banyak tentang kamu, selaras dengan tujuanmu, layak dipercaya, dan mampu “mewakili” kamu dalam batas tertentu di dunia digital.
Untuk Codex, kamu bisa menganggapnya sebagai: saat ini ia masih merupakan alat yang terutama dibuat untuk insinyur perangkat lunak, tetapi ia sedang berubah menjadi “Codex untuk semua orang”.
Siapa pun yang ingin menciptakan atau membangun sesuatu bisa menggunakan Codex agar komputer melakukan yang mereka inginkan. Dan ia tidak lagi sekadar “menulis perangkat lunak”; ia lebih seperti “menggunakan komputer itu sendiri”. Misalnya saya bisa memintanya untuk mengatur setelan laptop saya. Kadang saya lupa cara mengatur hot corners, lalu saya suruh Codex untuk melakukannya, dan ia benar-benar melakukannya.
Inilah cara komputer seharusnya berfungsi—komputer harus menyesuaikan diri dengan manusia, bukan membuat manusia harus menyesuaikan diri.
Jadi kamu bisa membayangkan sebuah aplikasi: semua hal yang ingin kamu kerjakan dengan komputer, bisa langsung kamu beritahu. Di dalamnya ada kemampuan bawaan “penggunaan komputer” dan “operasi browser”, sehingga AI benar-benar bisa mengoperasikan situs web, sementara kamu juga bisa mengawasi apa yang sedang ia lakukan. Dan apa pun jenis interaksimu—obrolan, menulis kode, atau pekerjaan pengetahuan yang umum—semua percakapan itu akan disatukan dalam satu kerangka. AI akan memiliki memori, dan memahami kamu.
Itulah yang sedang kami bangun.
Tapi terus terang, ini masih hanya puncak gunung es, bagian yang terlihat di permukaan. Bagi saya, yang lebih penting adalah kesatuan teknologi di lapisan bawah.
Kami sebelumnya sudah menyebut tentang kesatuan di level model dasar, tetapi yang berubah selama beberapa tahun terakhir adalah: sekarang bukan lagi hanya soal “model”; yang lebih penting adalah “sistem yang menampungnya”. Artinya, bagaimana model mendapatkan konteks? Bagaimana ia terhubung ke dunia nyata? Tindakan apa yang bisa ia lakukan? Ketika konteks baru terus masuk, bagaimana mekanisme loop saat berinteraksi dengan pengguna bekerja?
Di masa lalu, hal-hal ini di dalam perusahaan kami sebenarnya punya beberapa implementasi yang berbeda, atau setidaknya beberapa implementasi yang sedikit berbeda. Sekarang kami sedang mengonsolidasikannya menjadi satu set. Pada akhirnya, kami akan memiliki lapisan AI yang terpadu, lalu dengan cara yang sangat ringan, mengarahkannya ke berbagai skenario aplikasi spesifik.
Tentu kamu masih bisa membuat plugin kecil, antarmuka kecil yang khusus untuk keuangan atau khusus untuk hukum, tetapi dalam banyak kasus kamu bahkan tidak perlu melakukannya, karena super app itu sendiri sudah cukup luas dan cukup umum.
Alex:
Apakah aplikasi ini ditujukan untuk skenario perusahaan maupun skenario personal?
Greg Brockman:
Ya, justru itu inti dari semuanya. Bayangkan sebuah komputer, misalnya laptopmu—apakah itu untuk penggunaan personal atau untuk pekerjaan? Jawabannya: keduanya. Pertama-tama itu adalah perangkatmu, antarmukamu untuk masuk ke dunia digital. Dan itulah yang ingin kami buat.
Alex:
Kalau dari sisi non-bisnis, jika saya menggunakan super app ini dalam kehidupan pribadi, saya akan melakukan apa? Hidup saya akan berubah bagaimana?
Greg Brockman:
Saya akan memahaminya seperti ini: dalam kehidupan pribadi, ia akan terutama melanjutkan cara kamu memakai ChatGPT saat ini.
Bagaimana kamu menggunakan ChatGPT sekarang? Orang-orang sudah menggunakannya untuk menyelesaikan berbagai tugas yang beragam dan bahkan sangat mengagumkan. Kadang hanya dengan mengatakan, “Aku perlu draft pidato untuk acara pernikahan, bisa bantu membuatkannya?” atau “Bisakah kamu melihat ide ini dan memberi saya masukan?” Contoh lain: “Saya sedang menjalankan usaha kecil, bisa beri saya beberapa ide?”
Ada skenario yang cenderung personal, ada juga yang mulai mengaburkan batas antara personal dan pekerjaan. Dan pandangan saya adalah: semua jenis masalah seperti ini harus bisa diserahkan kepada super app untuk ditangani.
Greg Brockman:
Tapi kalau kamu melihat perkembangan ChatGPT dari awal sampai sekarang, ia sebenarnya sudah berevolusi.
Dulu ia tidak punya memori, kan? Untuk setiap orang, itu adalah AI yang sama, selalu mulai dari nol, hampir seperti sedang berbicara dengan orang asing setiap saat. Tapi jika ia bisa mengingat interaksi kalian sebelumnya, ia akan jauh lebih kuat. Dan jika ia bisa mengakses konteks yang lebih banyak, ia juga akan jauh lebih kuat.
Misalnya, ia bisa terhubung ke email kamu dan kalender kamu, benar-benar memahami preferensi kamu, memiliki rangkaian informasi latar yang lebih dalam tentang pengalaman-pengalaman masa lalu kamu, lalu menggunakan informasi itu untuk membantu kamu mencapai tujuan. Contoh lain, di ChatGPT saat ini sudah ada fitur bernama Pulse: ia akan setiap hari mendorong konten yang mungkin menarik bagimu, berdasarkan pemahamannya tentang kamu.
Jadi dari sisi penggunaan personal, super app akan memasukkan semua itu, dan dibuat lebih mendalam serta lebih kaya.
Alex:
Kapan kalian berencana merilisnya?
Greg Brockman:
Pemahaman yang lebih tepat adalah: dalam beberapa bulan ke depan, kami akan melangkah demi langkah menuju arah ini. Visi utuh yang kami bicarakan ini akan diserahkan secara bertahap, bukan diluncurkan sekaligus dalam satu momen. Ia akan muncul dengan cara bertahap.
Misalnya, aplikasi Codex yang ada saat ini sebenarnya sudah memuat dua lapisan: satu adalah sistem penampung agen yang bersifat umum (agent harness), yang dapat menggunakan alat; dan lapisan lain adalah agen yang mahir menulis perangkat lunak.
Dan sistem penampung yang umum ini sebenarnya bisa dipakai untuk banyak skenario lain. Kamu hubungkan ke spreadsheet, hubungkan ke dokumen Word, dan ia akan membantu mengerjakan pekerjaan berbasis pengetahuan.
Jadi langkah pertama kami adalah membuat aplikasi Codex lebih baik untuk pekerjaan pengetahuan yang bersifat umum. Karena di OpenAI, kami sudah melihat orang-orang mulai secara spontan menggunakannya seperti itu.
Ini akan menjadi langkah pertama, dan setelahnya masih banyak langkah lainnya.
Alex:
Saya kemarin ngobrol dengan salah satu rekan kalian tentang Codex. Ia menyebut ada seseorang yang memakai Codex untuk pengeditan video: ia menyuruh Codex memproses video, dan Codex bahkan membuat plugin untuk Adobe Premiere—membagi video menjadi bab, lalu mulai mengedit. Ini arah yang ingin kalian lakukan, bukan?
Greg Brockman:
Saya sangat suka mendengar kasus seperti itu. Ini memang cara yang kami harapkan sistem ini bisa berfungsi. Dan ada hal yang menarik: aplikasi Codex awalnya dirancang untuk insinyur perangkat lunak, sehingga untuk non-programmer, ketersediaannya saat ini sebenarnya tidak terlalu tinggi. Karena dalam proses konfigurasi, akan ada banyak masalah kecil.
Para developer tentu langsung tahu maksudnya, dan tahu bagaimana memperbaikinya; kami sudah terbiasa. Tetapi jika kamu bukan developer, ketika kamu melihat hal-hal itu, kamu akan berpikir: “Ini apa? Aku belum pernah melihatnya sebelumnya.”
Tetapi bahkan demikian, kami melihat banyak orang yang belum pernah menulis program sama sekali sudah mulai membangun situs web dengannya, atau melakukan hal yang barusan kamu sebut—otomatisasi interaksi antar berbagai perangkat lunak—dan mendapatkan pengungkit yang sangat besar. Misalnya, di tim komunikasi kami ada orang yang menghubungkan ini ke Slack dan email, memintanya menangani banyak feedback, lalu membuat rangkuman dan sintesis yang bagus.
Jadi sekarang situasinya adalah: orang-orang yang punya motivasi tinggi sudah bersedia melewati ambang batas ini, lalu mendapatkan imbal hasil yang besar dari situasi tersebut.
Dengan kata lain, secara semacamnya, bagian paling sulit sudah selesai—kami sudah membuat AI yang benar-benar pintar, mampu, dan dapat menyelesaikan tugas secara nyata. Langkah berikutnya adalah bagian yang relatif “lebih mudah”: membuatnya benar-benar berguna bagi masyarakat luas, dan perlahan memecah ambang masuk itu sedikit demi sedikit.
Alex:
Dari perspektif peta persaingan, Anthropic sekarang juga punya aplikasi Claude—ada chatbot, juga Claude Code. Sampai batas tertentu, mereka juga sudah punya embrio “super app” mereka sendiri.
Bagaimana menurutmu mengapa Anthropic lebih cepat sampai ke langkah ini? Dan seberapa besar peluang OpenAI untuk menyusul?
Greg Brockman:
Kalau kita mundurkan waktu 12 sampai 18 bulan, kami sebenarnya terus menjadikan “pemrograman” sebagai area fokus, dan kami juga selalu meraih hasil terbaik di berbagai uji kompetitif pemrograman yang sangat “murni kemampuan”. Tetapi ada satu hal yang saat itu kami investasikan kurang: “last mile” dari sisi kegunaan.
Artinya, kami kurang menaruh perhatian pada masalah seperti ini: AI sudah sangat pintar dan bisa menyelesaikan berbagai soal pemrograman yang sulit, tetapi ia belum pernah melihat kodebase dunia nyata—yang dalam kenyataan sering kacau, jauh berbeda dari lingkungan “bersih” yang selama ini ia kenal.
Dalam hal ini, kami memang tertinggal saat itu. Kira-kira mulai pertengahan tahun lalu, barulah kami mulai mengerjakan hal tersebut dengan sangat serius. Kami membentuk tim khusus untuk mencari celah-celah di mana letaknya, dan memahami keruwetan serta kompleksitas apa di dunia nyata yang sebelumnya belum benar-benar kami sentuh.
Misalnya, bagaimana menyusun data pelatihan? Bagaimana membangun lingkungan pelatihan? Agar AI benar-benar merasakan seperti apa rasanya “mengerjakan rekayasa perangkat lunak”—terganggu, menghadapi masalah-masalah aneh, serta berbagai kondisi yang tidak ideal, dan sebagainya.
Saya pikir sekarang kami sudah mengejar ketertinggalan. Ketika pengguna benar-benar membandingkan kami secara langsung dengan kompetitor saat ini, banyak orang akan lebih condong memilih kami.
Tentu kami juga tahu bahwa kami masih punya kesenjangan di sisi pengalaman front-end, dan kami akan menutupnya. Tetapi secara keseluruhan, arah kami selama periode ini adalah: bukan sekadar membuat model, lalu menambahkan “kulit produk” di atasnya; melainkan sejak awal memikirkan sebagai produk yang utuh. Ketika kami melakukan riset, kami sekaligus memikirkan: pada akhirnya ia akan digunakan untuk apa? Ini adalah pergeseran yang sedang terjadi di dalam OpenAI.
Jadi, menurut saya, ke depan kita akan mendapatkan gelombang peningkatan model yang sangat kuat. Hanya melihat roadmap tahun ini saja, saya merasa sangat bersemangat; hal yang bisa dilakukan memang banyak.
Pada saat yang sama, kami sangat memusatkan upaya untuk menutup “last mile” kegunaan.
Alex:
Sejak 2022, OpenAI telah menjadi pemimpin yang tidak terbantahkan di bidang ini. Jelas sekarang persaingan tidak lagi hanya soal nilai di tes-tes kemampuan. Kamu tadi sendiri sudah memakai kata-kata “kami sudah menyusul”. Suasananya di dalam perusahaan apakah juga berubah? Maksud saya, perasaan unggul jauh di produk seperti ChatGPT yang dulu terasa berbeda, sekarang benar-benar masuk ke persaingan yang langsung dan frontal.
Beberapa pemberitaan dari luar juga menunjukkan perubahan itu—misalnya, ada pertemuan internal di perusahaan yang menekankan bahwa OpenAI tidak lagi punya “tugas sampingan”; semua orang harus memusatkan perhatian pada arah inti ini. Jadi bagaimana sebenarnya perubahan suasana dan lingkungan internal sekarang?
Greg Brockman:
Saya akan mengatakan begini: untuk saya secara pribadi, momen yang paling membuat saya tidak nyaman di OpenAI justru ketika kami meluncurkan ChatGPT.
Saya ingat saat itu, di pesta liburan perusahaan, suasananya dipenuhi nuansa “kami menang”. Saya sebelumnya tidak pernah merasakan hal seperti itu. Reaksi saya saat itu: tidak, kami bukan seperti itu; kami adalah pihak yang berada di pihak yang tertinggal.
Dan memang demikian. Kebanyakan pesaing kami di bidang ini adalah perusahaan besar yang sudah mapan—uang lebih banyak, sumber daya manusia lebih banyak, dan data lebih banyak, sehingga hampir semua sumber daya lebih memadai.
Kalau begitu, mengapa OpenAI masih bisa ikut bersaing? Sebagian jawabannya adalah: kami tidak pernah merasa nyaman dan merasa aman. Kami selalu menempatkan diri sebagai penantang.
Faktanya, menurut saya justru ketika saya melihat pasar mulai benar-benar menampilkan peta kompetisi seperti itu, ketika saya melihat pesaing lain juga bermunculan dan melakukan pekerjaan yang bagus, itu adalah hal yang sehat.
Karena menurut saya, kamu tidak pernah boleh menahan perhatianmu sepenuhnya pada kompetitor. Jika kamu hanya menatap mereka sekarang ada di mana, ketika kamu tiba di sana, mereka sudah melangkah lebih jauh.
Dan saya merasa, selama periode terakhir justru kebalikannya: banyak orang terus mengawasi posisi kami, sementara kami bisa terus bergerak maju. Itu justru memberi kami keselarasan dan rasa kesatuan secara internal.
Saya tadi menyebutkan bahwa sebelumnya kami hampir memperlakukan “riset” dan “deployment” sebagai dua hal terpisah. Tetapi sekarang kami benar-benar ingin mengintegrasikannya. Bagi saya, itu adalah hal yang sangat indah.
Jadi saya akan mengatakan: fase yang kita jalani sekarang bukanlah fase ketika saya merasa kami dulu “pasti menang”, atau sekarang tiba-tiba dalam krisis. Kamu tahu, penilaian dunia luar terhadapmu biasanya tidak sebaik seperti yang mereka katakan, dan tidak seteruk seperti yang mereka katakan.
Saya merasa secara keseluruhan kami tetap stabil. Dalam hal inti pengembangan model, saya sangat percaya pada roadmap kami dan investasi riset yang sudah kami lakukan. Untuk sisi produk, saya merasa kami sekarang punya momentum yang sangat baik; semua orang sedang mengumpulkan energi, agar benar-benar menyerahkan hal-hal ini ke dunia.
Alex:
Kamu berkali-kali sudah menyinggung bahwa ada sejumlah model baru yang sangat kuat ke depan. Tapi sebenarnya apa itu?
Menurut laporan The Information, kalian sudah menyelesaikan pretraining untuk “Spud”; dan Sam Altman juga mengatakan kepada karyawan internal OpenAI bahwa dalam beberapa minggu, mereka akan melihat model yang sangat kuat. Itu masih pernyataan beberapa minggu lalu; dan tim internal bahkan percaya bahwa model itu mungkin benar-benar mampu mendorong percepatan ekonomi, dengan kemajuan yang lebih cepat daripada yang diperkirakan banyak orang.
Jadi, apa sebenarnya “Spud”?
Greg Brockman:
Itu adalah model yang bagus. Tapi menurut saya, yang penting bukan pada satu model tunggal.
Proses riset dan pengembangan kami secara garis besar begini: pertama pretraining, yaitu menghasilkan model fondasi baru; setelah itu, semua peningkatan lebih lanjut akan dibangun di atas model fondasi tersebut. Tahap ini, biasanya membutuhkan banyak tim internal yang berinvestasi dengan upaya besar. Faktanya, dalam 18 bulan terakhir, sebagian besar waktu saya sendiri saya habiskan di sana: terutama di sekitar infrastruktur GPU, untuk mendukung tim-tim yang bertanggung jawab menjalankan framework pelatihan, agar tugas-tugas pelatihan skala besar itu benar-benar bisa berjalan.
Kemudian adalah tahap reinforcement learning—yakni membuat AI yang sudah mempelajari banyak pengetahuan dunia mulai benar-benar menggunakan pengetahuan itu.
Setelah itu ada tahap post-training. Di tahap ini, kamu benar-benar mengajari: sekarang kamu sudah tahu bagaimana memecahkan masalah, maka berlatihlah pada berbagai situasi berbeda.
Terakhir, ada tahap “last mile” untuk perilaku dan kegunaan.
Jadi, saya memandang Spud sebagai fondasi baru, pretraining model baru. Dan di dalamnya, bisa dibilang riset kami sekitar dua tahun terakhir benar-benar mulai menghasilkan output. Ini akan sangat menggembirakan.
Saya pikir yang akhirnya dirasakan oleh dunia luar adalah peningkatan menyeluruh pada kemampuan. Tapi bagi saya, ini tidak pernah hanya soal rilis sekali versi tertentu. Karena ketika versi ini keluar, itu hanya versi awal dari lebih banyak kemajuan yang akan datang. Kami akan terus melakukan lebih banyak hal di setiap tahap dalam proses perbaikan.
Jadi saya merasa sekarang kita seperti memiliki mesin progres yang terus dipercepat, dan Spud hanyalah satu node dalam perjalanan tersebut.
Alex:
Kalau begitu, menurutmu apa yang bisa dilakukan Spud yang model-model saat ini belum bisa?
Greg Brockman:
Saya pikir ia akan bisa menyelesaikan masalah yang lebih sulit, dan juga lebih bernuansa. Ia akan lebih memahami instruksi, dan lebih memahami konteks.
Orang kadang menyebut semacam “big model smell”—maksudnya, ketika model benar-benar lebih pintar dan lebih mampu, kamu bisa merasakannya dengan jelas. Ia akan mengikuti maksudmu dengan lebih baik, dan lebih selaras dengan kebutuhanmu.
Ketika kamu bertanya sesuatu, tetapi AI tidak benar-benar mengerti maksudmu, perasaan itu masih sangat mengecewakan. Kamu akan berpikir: seharusnya kamu bisa menalar hal ini; mengapa AI tidak bisa memahaminya?
Jadi saya akan bilang, dalam arti tertentu, ini adalah “perubahan kualitas” yang terkumpul dari banyak “perubahan kuantitas”. Di satu sisi, banyak indikator akan meningkat. Di sisi lain, akan muncul beberapa skenario yang benar-benar baru: dulu kamu mungkin malas menggunakan AI karena kurang dapat dipercaya; sekarang kamu akan langsung memakainya tanpa ragu.
Saya pikir ini akan jadi perubahan menyeluruh. Saya terutama menantikan bagaimana ia terus mengangkat batas atas kemampuan. Kami sudah melihat performanya di skenario riset fisika; saya rasa berikutnya ia akan mampu menyelesaikan lebih banyak masalah terbuka, serta menjangkau rentang waktu yang lebih panjang.
Dan saya juga menantikan bagaimana ia mengangkat batas bawah kemampuan—artinya, apa pun yang ingin kamu kerjakan, AI akan jauh lebih berguna daripada hari ini.
Alex:
Tapi bagi pengguna biasa, merasakan perubahan seperti ini kadang tidak mudah. Misalnya sebelum rilis GPT-5, publik sudah punya banyak antisipasi dan ekspektasi; tetapi ketika produk itu benar-benar keluar, reaksi awal publik sebagian justru agak mengecewakan. Baru kemudian semua orang pelan-pelan menyadari bahwa untuk beberapa tugas spesifik, ia sangat kuat.
Jadi untuk generasi model berikutnya ini, menurutmu perubahan itu akan terasa jelas terutama di beberapa skenario pekerjaan tertentu, atau ia akan menjadi peningkatan yang intuitif dan bisa dirasakan secara luas oleh semua orang?
Greg Brockman:
Saya pikir ceritanya mungkin akan mirip. Setelah rilis model, pasti ada orang yang pertama kali mencobanya dan langsung merasa: ini benar-benar perbedaan siang dan malam dibanding yang pernah saya lihat. Tetapi juga akan ada beberapa skenario aplikasi yang bottleneck-nya sebenarnya bukan pada “kecerdasan”. Jika hanya membuat model menjadi lebih pintar, pengguna mungkin tidak langsung merasakan perbedaannya di tempat-tempat seperti itu.
Namun seiring waktu, saya pikir semua orang akhirnya akan merasakan perubahan. Karena yang benar-benar berubah adalah: sampai sejauh mana kamu mulai bergantung pada sistem ini.
Kalau kamu memikirkan cara kita berinteraksi dengan AI saat ini, setiap orang di kepalanya punya semacam model mental tentang “apa yang bisa dilakukan AI”. Model mental itu tidak berubah dengan cepat. Biasanya berubah setelah akumulasi pengalaman: sesekali AI melakukan sesuatu yang sangat menakjubkan untukmu, dan barulah kamu sadar: ternyata ia bisa melakukan hal itu, sesuatu yang sebelumnya bahkan tidak pernah kamu bayangkan.
Misalnya, dalam skenario seperti mencari informasi medis, kita sudah melihat hal semacam ini. Saya punya seorang teman yang menggunakan ChatGPT untuk mempelajari berbagai opsi perawatan untuk kanker yang dideritanya. Dokter sebelumnya sudah memberi tahu bahwa itu adalah stadium lanjut, dan tidak ada jalan lain. Tetapi ia menggunakan ChatGPT untuk meneliti banyak pemikiran berbeda, dan akhirnya benar-benar menemukan rencana perawatan.
Dalam kasus seperti itu, prasyaratnya sebenarnya: kamu harus punya tingkat kepercayaan tertentu pada kemampuan AI di skenario itu, barulah kamu bersedia mencurahkan begitu banyak usaha untuk menggali nilai dari sistem tersebut.
Jadi saya pikir ke depan, di semua skenario aplikasi yang serupa, kemampuan AI untuk membantu kamu akan menjadi semakin jelas dan nyata bagi semua orang.
Dengan demikian, ini bukan hanya AI yang makin kuat; cara kita memahami teknologi juga sedang berubah, dan sedang mengejarnya.
Alex:
Jadi, kamu akan semakin bergantung padanya. Di OpenAI internal, kalian sedang mengembangkan automation “AI researcher” dan katanya akan dirilis tahun ini pada musim gugur. Itu sebenarnya apa?
AI sudah masuk fase awal “lepas landas”
Greg Brockman:
Saya pikir, dari tren keseluruhan, kita sedang berada di fase awal lepas landas untuk teknologi ini.
Alex:
Apa yang dimaksud “lepas landas”?
Greg Brockman:
Lepas landas berarti AI terus menjadi lebih kuat seiring kurva eksponensial. Salah satu alasannya adalah: kita sudah bisa menggunakan AI untuk membantu meningkatkan AI itu sendiri, sehingga seluruh proses pengembangan juga makin dipercepat.
Tapi saya pikir, yang dimaksud “lepas landas” bukan cuma urusan teknis. Ini juga berarti pelepasan dampak ke dunia nyata. Banyak perkembangan teknologi mengikuti kurva-S; dan jika kamu melihat beberapa kurva-S dalam dimensi waktu yang lebih panjang, pada akhirnya ia akan mengerucut menjadi semacam pertumbuhan yang mendekati eksponensial.
Saya rasa kita sedang berada di tahap seperti itu sekarang. Artinya: teknologi itu sendiri bergerak dengan semakin cepat, dan mesin progres ini terus menumpuk momentum.
Di saat yang sama, di dunia luar juga ada banyak faktor pendorong angin baik: para pengembang chip mendapatkan sumber daya lebih banyak untuk diinvestasikan; banyak orang di level aplikasi menciptakan berbagai aplikasi di atas AI, memasukkannya ke berbagai skenario, dan mencari kecocokan dengan kebutuhan spesifik.
Semua energi ini terus terakumulasi, bersama-sama mendorong AI memasuki “masa lepas landas”, mengubahnya dari keberadaan yang bersifat pinggiran menjadi mesin utama yang mendorong pertumbuhan ekonomi.
Dan ini bukan hanya kejadian di balik tembok-tembok kami. Ini menyangkut seluruh dunia, seluruh sistem ekonomi—bagaimana bersama-sama mendorong teknologi ini, serta bagaimana kegunaannya terus maju.
Alex:
Jadi “researcher” itu secara spesifik akan melakukan apa?
Greg Brockman:
Istilah “researcher” pada dasarnya berarti: ketika proporsi tugas yang bisa diambil alih oleh AI menjadi semakin tinggi, kita seharusnya mengizinkannya untuk berjalan lebih mandiri.
Tentu saja, di balik itu ada banyak hal yang perlu dipikirkan dengan cermat. Ini tidak berarti: kita melepaskannya begitu saja agar berjalan sendiri selama beberapa waktu, lalu nanti kita balik lagi untuk melihat apakah ada hasil yang bagus.
Saya pikir kita tetap akan terlibat sangat dalam dalam manajemennya. Sama seperti sekarang: jika kamu membimbing seorang peneliti junior, dan kamu membiarkannya sendiri terlalu lama, ia kemungkinan besar akan berakhir di jalur yang tidak terlalu bernilai. Tetapi jika ada peneliti yang sudah senior, atau seseorang yang benar-benar punya arah, ia bahkan mungkin tidak perlu menguasai semua keterampilan operasional detail secara langsung; tetap bisa memberi umpan balik yang berkelanjutan terhadap hasil yang dibuat orang itu, melakukan review, dan memberikan arahan: tugas apa yang sebenarnya kamu ingin mereka selesaikan.
Jadi saya memandang sistem ini sebagai mekanisme yang sedang kami bangun: ia akan sangat meningkatkan kecepatan output model kami, mendorong munculnya terobosan riset baru, dan membuat model-model tersebut menjadi lebih berguna serta lebih bagus digunakan di dunia nyata. Dan semua ini akan terjadi dengan kecepatan yang semakin tinggi.
Alex:
Apa yang akan ia lakukan secara spesifik? Apakah kamu akan langsung mengatakan padanya: “carilah AGI”, lalu ia mencoba sendiri?
Greg Brockman:
Dalam tingkat tertentu, saya memang memahaminya seperti itu—setidaknya pada lapisan pertama. Tapi dari sisi yang lebih praktis, saya memahaminya sebagai: memindahkan alur kerja lengkap seorang ilmuwan riset dari awal sampai akhir, sejauh mungkin, agar dijalankan oleh sistem berbasis mesin.
Alex:
Ada cara lain untuk memahami “lepas landas”: kemajuan AI berubah dari peningkatan bertahap menjadi penumpukan momentum yang terus berakumulasi, lalu berevolusi menjadi proses dorongan yang hampir tak terbendung, bergerak menuju kecerdasan yang lebih cerdas dari manusia.
Apakah kamu akan khawatir bahwa seperti halnya perkembangan bisa mengarah ke arah yang baik, kemajuan itu sendiri juga bisa lepas kendali atau melenceng?
Greg Brockman:
Saya pikir, tentu saja—itu pasti bisa terjadi. Saya percaya, untuk mendapatkan manfaat dari teknologi ini, kita harus memikirkan risikonya dengan serius.
Kalau kamu melihat cara kami melakukan pengembangan teknologi, kamu akan melihat bahwa kami berinvestasi banyak pada keamanan dan perlindungan. Contoh yang bagus adalah serangan prompt injection. Jika kamu ingin membangun AI yang sangat cerdas, berkemampuan tinggi, dan terhubung ke banyak alat, maka kamu harus memastikan bahwa AI tidak akan terbawa sesat atau dimanipulasi hanya karena seseorang memberi instruksi yang aneh.
Itulah hal yang kami habiskan banyak usaha untuk lakukan, dan saya pikir kami sudah mendapatkan hasil yang sangat baik, serta ada tim yang sangat kuat yang bertanggung jawab pada bagian ini.
Yang menarik adalah: beberapa masalah di sini sebenarnya bisa dianalogikan dengan manusia. Manusia juga bisa terkena phishing, bisa disesatkan, dan bisa bertindak tanpa memahami konteks lengkap.
Kami akan memasukkan analogi-analogi tersebut ke dalam proses riset dan pengembangan kami. Setiap kali kami merilis sebuah model atau mengembangkan model, kami memikirkan: bagaimana memastikan model itu benar-benar selaras dengan tujuan manusia? bagaimana memastikan model itu benar-benar bisa membantu?
Tentu juga ada beberapa masalah yang lebih besar, menyangkut seluruh dunia dan seluruh ekonomi: bagaimana semuanya akan berubah? bagaimana setiap orang bisa diuntungkan dari teknologi ini? Ini bukan hanya masalah teknis, dan tidak bisa diselesaikan oleh OpenAI saja. Tetapi ya, saya memang sering memikirkannya—bukan hanya mendorong teknologi maju, tetapi memastikan ia menghasilkan dampak positif yang sepadan dengan potensinya.
Alex:
Masalahnya, ini terlihat seperti sebuah perlombaan. Hal yang terjadi di balik tembok kantor pusat OpenAI juga bisa dengan cepat ditiru oleh banyak pemain open source. Dan para pemain itu, dalam hal batas keamanan dan perlindungan, biasanya jauh lebih lemah.
Saya ingat kamu pernah mengucapkan sesuatu, intinya begini: pencapaian yang kreatif membutuhkan banyak orang yang melakukan banyak hal dengan benar; tetapi hasil yang merusak mungkin hanya butuh satu orang yang berniat jahat. Itulah setidaknya yang paling saya khawatirkan. Karena jelas ini adalah perlombaan, dan kemajuannya berlangsung cepat. Banyak rekan sejawat kamu mengatakan bahwa jika semua orang sepakat untuk berhenti, mereka pun bersedia. Tetapi sekarang tampaknya perlombaan ini sama sekali tidak menunjukkan tanda-tanda melambat.
Jadi, apakah imbal hasilnya benar-benar sepadan untuk menanggung risiko seperti itu?
Greg Brockman:
Saya pikir imbal hasil itu layak. Tapi saya juga merasa jawaban seperti itu masih terlalu kasar, terlalu hitam-putih.
Sejak OpenAI didirikan, kami terus bertanya: masa depan seperti apa yang bisa disebut masa depan yang baik? Bagaimana teknologi ini benar-benar meningkatkan kondisi semua orang?
Kamu bisa memecah pertanyaan itu menjadi dua sudut. Satu adalah sudut pandang “terpusat”: untuk membuat teknologi ini aman, cara terbaik adalah hanya ada satu pihak yang mengembangkannya. Dengan begitu, tidak ada tekanan kompetisi; kamu bisa melangkah pelan dan hati-hati sampai semuanya benar, lalu memutuskan kapan teknologi itu diserahkan kepada semua orang. Gagasan itu tentu bisa dipahami, tetapi sampai batas tertentu itu juga merupakan skenario yang sulit diterima.
Dan jalur lainnya—yang lebih kami sukai—adalah berpikir dari sisi “ketahanan” (resilience). Artinya melihat teknologi ini sebagai sistem yang terbuka: banyak pihak ikut mendorong pengembangan teknologi, tetapi fokusnya bukan hanya teknologi itu sendiri, melainkan membangun infrastruktur sosial di sekitar teknologi tersebut agar bisa ditampung dengan lebih aman.
Kamu bisa memikirkan seperti perkembangan tenaga listrik. Tenaga listrik juga diproduksi oleh banyak pihak dan lembaga berbeda, dan ia juga punya risiko serta bahaya. Namun bersamaan dengan itu, kita membangun infrastruktur keselamatan berlapis-lapis di sekelilingnya: ada standar keselamatan listrik, ada aturan penggunaan yang berbeda, dan ada pendekatan regulasi yang sesuai dengan skala yang berbeda. Ketika skalanya sudah sangat besar, barulah ada persyaratan regulasi khusus. Banyak orang bisa menggunakan listrik dengan cara yang terdemokratisasi, dan tetap ada inspektur serta sistem pendukung yang lengkap, yang dibangun seiring kita membentuk ekosistem untuk karakteristik teknologi tersebut.
Dan saya rasa AI juga sama. Hal yang benar-benar kami lihat adalah: harus ada diskusi sosial yang luas di sekeliling AI. Jika teknologi ini benar-benar hadir dan mengubah kehidupan setiap orang, maka orang-orang harus ikut terlibat. Ia tidak bisa hanya didorong diam-diam dan diputuskan oleh kelompok kecil yang terpusat.
Jadi bagi saya, ini selalu menjadi pertanyaan inti: teknologi ini sebaiknya dikembangkan dengan cara seperti apa? Dan yang benar-benar kami yakini adalah: akan terbentuk “ekosistem ketahanan” yang bertumbuh di sekitar perkembangan teknologi itu sendiri.
Alex:
Jadi maksudmu, kita sedang berada dalam proses “lepas landas”, dan semua orang sesungguhnya sudah ada di dalamnya. CEO NVIDIA Huang Renxun baru-baru ini mengatakan bahwa ia yakin AGI sudah tercapai. Kamu setuju?
Greg Brockman:
Saya pikir AGI didefinisikan berbeda bagi orang yang berbeda. Dan memang banyak orang menganggap bahwa teknologi yang kita punya hari ini sudah bisa dihitung sebagai AGI.
Ini bisa diperdebatkan. Tapi hal yang benar-benar menarik adalah: teknologi yang kita miliki saat ini sebenarnya masih “tidak halus”, dengan diskontinuitas yang jelas.
Dalam banyak tugas—misalnya menulis kode—ia sudah benar-benar luar biasa. AI bisa melakukannya, dan ia benar-benar mengurangi gesekan ketika kita ingin menciptakan sesuatu. Tetapi pada saat yang sama, ada beberapa hal yang sangat fundamental yang manusia bisa lakukan dengan mudah, sementara AI masih kesulitan.
Jadi di mana tepatnya kamu menggambar garis batasnya? Pada tingkat tertentu, ini lebih seperti “perasaan”, penilaian suasana hati, bukan masalah yang bisa didefinisikan secara ketat secara ilmiah pada titik ini.
Jadi untuk diri saya sendiri, saya merasa kita jelas sudah mengalami momen itu. Jika lima tahun lalu saya melihat demo sistem-sistem seperti hari ini, saya akan berkata: ya, ini adalah jenis hal yang kami bicarakan saat itu. Hanya saja bentuknya ketika menjadi nyata ternyata sangat berbeda dari bayangan awal kami. Ia tidak terlalu mirip dengan bentuk apa pun yang pernah kami bayangkan dulu.
Jadi saya pikir, kita perlu menyesuaikan model mental kita.
Alex:
Jadi maksudmu, masih belum sampai?
Greg Brockman:
Saya akan bilang, mungkin sudah sekitar 70%, 80%. Jadi saya merasa kita sudah sangat dekat.
Dan saya pikir ada satu hal yang benar-benar jelas: dalam beberapa tahun ke depan, kita pasti akan sampai ke AGI. Performanya masih bisa “bergigi” dan tidak serba halus atau sempurna di mana-mana, tetapi batas bawah kemampuan untuk menyelesaikan tugas akan dinaikkan sangat tinggi—hampir untuk setiap tugas intelektual yang perlu kamu kerjakan di komputer, AI bisa melakukannya.
Jadi sekarang saya harus memberi jawaban yang sedikit tidak pasti, karena memang ada semacam “prinsip ketidakpastian” di sini. Kamu bisa berdebat dari definisi yang berbeda. Tetapi dengan definisi pribadi saya, saya merasa kita sudah hampir sampai. Satu langkah lagi saja dan itu pasti sudah.
Pergantian kunci: dari 20% ke 80% pekerjaan yang diambil alih
Alex:
Tepat pada Desember 2025, apa yang terjadi. Karena itu tampak seperti titik belok—ketika “membiarkan mesin menulis kode selama beberapa jam tanpa terputus” yang sebelumnya mungkin ide teoretis, tiba-tiba berubah menjadi sesuatu yang semua orang mulai berkata: “Saya merasa bisa mempercayainya, dan membiarkannya terus berjalan sebentar.”
Jadi pada saat itu, sebenarnya apa yang berubah?
Greg Brockman:
Saat itu, setelah perilisan model baru, proporsi tugas yang bisa diselesaikan AI kira-kira melompat dari 20% dari pekerjaanmu menjadi 80% sekaligus. Ini adalah perubahan yang sangat besar. Karena ia tidak lagi menjadi “alat kecil yang lumayan bagus”, melainkan menjadi: kamu harus menyusun ulang alur kerja kamu di sekitar AI ini.
Bagi saya secara pribadi, saya punya momen yang sangat khas saat merasakan perubahan itu. Selama bertahun-tahun, saya selalu punya sebuah prompt tes: biarkan AI membuatkan sebuah website untuk saya. Website itu sendiri adalah yang dulu pernah saya buat sendiri ketika belajar pemrograman, dan saya menghabiskan beberapa bulan untuk melakukannya.
Pada tahun 2025, hal itu masih perlu waktu sekitar empat jam, bolak-balik beberapa kali dengan prompt, supaya hasilnya cukup layak. Tetapi pada Desember, saya hanya bertanya sekali; AI langsung membuatnya, dan hasilnya sangat bagus.
Alex:
Lalu bagaimana model-model itu bisa membuat lompatan seperti itu?
Greg Brockman:
Banyak hal terjadi. Salah satunya karena model fondasi menjadi lebih kuat. OpenAI terus meningkatkan teknologi pretraining-nya. Pada titik waktu itu, kami pertama kali melihat sedikit tanda tentang apa yang akan terjadi di sisa tahun ini. Tapi pada saat yang sama, ini bukan masalah satu terobosan tunggal. Lebih tepatnya, kami terus mendorong semua dimensi inovasi secara berkelanjutan.
Satu hal yang menarik dari model-model ini adalah: pada suatu tingkat, kamu bisa merasakan munculnya “lompatan-lompatan” dalam beberapa cara. Tapi dari sisi lain, semuanya sebenarnya evolusi yang berkesinambungan. Ia tidak tiba-tiba melompat dari 0% ke 80%, melainkan dari 20% ke 80%. Jadi sampai batas tertentu, kamu juga bisa mengatakan ini hanya menjadi lebih baik.
Dan menurut saya, kemajuan seperti ini terus berlanjut pada pembaruan versi-versi kecil berikutnya. Misalnya dari 5.2 ke 5.3: saya bekerja sangat dekat dengan seorang engineer; pada awalnya, ia sama sekali tidak bisa membuat model mengerjakan pekerjaan sistem rekayasa tingkat bawah yang ia tangani. Tetapi setelah versi baru, model sudah bisa mengambil alih rancangan dokumen yang ia buat, benar-benar mengimplementasikannya, menambahkan monitoring metrik dan observabilitas, menjalankan profiler untuk analisis performa, lalu terus mengoptimalkan sampai mencapai hasil yang awalnya ia harapkan untuk diserahkan sendiri.
Jadi saya akan bilang: ini lebih seperti proses “melaju perlahan, lalu tiba-tiba berubah di mana-mana”. Tetapi semua itu sebenarnya sudah diprediksi oleh kemampuan yang mulai bekerja pada saat ini. Paling lambat satu tahun ke depan, banyak hal—ada yang bahkan lebih cepat—akan menjadi sangat andal.
Alex:
Apakah ini juga membuatmu terkejut? Karena saya ingat kamu pernah mengatakan dalam sebuah wawancara bahwa alat pemrograman otomatis seperti Codex semula hanya untuk developer perangkat lunak. Tapi lebih awal dalam percakapan ini kamu juga bilang bahwa sebenarnya semua orang bisa menggunakan alat semacam itu.
Jadi apa yang mengubah pandanganmu?
Greg Brockman:
Sebelumnya, saya sebenarnya selalu memahami Codex dalam kerangka “menulis kode”. Karena di dalam namanya ada code, wajar saja orang menganggapnya alat untuk programmer. Selain itu, banyak orang di OpenAI juga engineer perangkat lunak; jadi kami membuat alat untuk diri kami, sehingga cara memandangnya seperti itu juga sangat alami.
Tapi seiring teknologi ini terus berkembang, kami mulai menyadari satu hal: teknologi fondasi yang benar-benar kami bangun sebagian besar sebenarnya tidak terlalu tentang “kode”. Intinya adalah mengelola konteks, membangun kerangka eksekusi, dan memikirkan bagaimana AI terhubung dengan pekerjaan dunia nyata, dan bagaimana benar-benar menyelesaikan semuanya.
Begitu itu sudah benar, bahkan dalam skenario pemrograman pun, hal itu berarti siapa pun bisa mendapatkan kemampuan ini. Karena yang kamu miliki sesungguhnya adalah sebuah sistem yang bisa mengeksekusi pekerjaan untukmu. Selama kamu punya visi dan tujuan yang ingin dicapai, kamu bisa menjabarkan maksudmu, lalu AI akan menjalankannya—dan membuatnya terjadi.
Tetapi ini juga membuatmu bertanya lagi: kenapa aku hanya fokus pada pembagian “non-pemrograman” atau “pemrograman”? Faktanya, ada banyak pekerjaan lain yang pada dasarnya hanya keterampilan yang mekanis. Misalnya spreadsheet Excel, misalnya membuat presentasi. Jika AI sudah punya konteks yang cukup dan kecerdasan mentah yang cukup, ia sebenarnya sudah bisa melakukannya dengan sangat baik.
Jadi, jika kita hanya membuatnya lebih mudah diakses, lebih ramah bagi manusia, maka ia akan berubah dari “Codex untuk programmer” menjadi “Codex untuk semua orang”.
Alex:
Setelah kita melihat peningkatan yang jelas ini, Silicon Valley segera muncul lagi fenomena lain yang hampir tidak terdengar: Open Claw, benar? Atau lebih luas lagi, seluruh dunia teknologi mulai mempercayai AI dengan cara yang mirip dengan yang kamu sebutkan tadi—misalnya memberikan kendali desktop kepada robot AI, atau memasang Mac mini dan memberikan izin seperti email, kalender, dan file, lalu membiarkannya, dalam tingkat tertentu, “mengambil alih hidupmu”.
Kemudian OpenAI merekrut pendiri Open Claw ke dalam perusahaan. Jadi bisakah kamu ceritakan lebih banyak tentang AI yang “membantu mengelola hidup” ini? Merekrut tim Open Claw di baliknya adalah visi seperti itu, bukan?
Greg Brockman:
Saya akan bilang, hal paling inti dari teknologi ini adalah memahami bagaimana ia harus menjadi berguna. Orang-orang ingin menggunakannya bagaimana? Visi agen itu apa? dan bagaimana ia masuk ke kehidupan orang-orang—dengan cara seperti apa. Semua itu adalah pertanyaan yang sangat sulit.
Dan satu hal yang berulang kali saya lihat dari beberapa generasi evolusi teknologi adalah: orang-orang yang benar-benar mau berinvestasi secara mendalam, penuh rasa ingin tahu, dan memiliki imajinasi kuat—itu sendiri adalah kemampuan yang sangat nyata. Dan kemampuan itu akan semakin bernilai di ekonomi yang baru.
Pendiri Open Claw, Peter, menurut saya adalah tipe orang seperti itu. Ia punya imajinasi yang kuat dan dorongan kreatif yang kuat. Jadi dalam sebagian hal, ini terkait dengan teknologi tertentu. Tapi di sisi lain, ini sebenarnya bukan hanya masalah teknologi. Yang lebih penting adalah: bagaimana menanamkan kemampuan-kemampuan ini ke dalam kehidupan orang-orang, dan menemukan tempat yang tepat bagi kemampuan-kemampuan itu.
Jadi, sebagai seorang teknolog, ini tentu menggembirakan. Tetapi sebagai orang yang benar-benar peduli tentang bagaimana menyerahkan nilai praktis kepada pengguna, kami juga meningkatkan investasi dan berinvestasi sangat banyak pada hal ini sekarang.
Alex:
Kamu baru-baru ini punya pernyataan yang cukup menarik tentang ini. Kamu bilang, ketika kamu mulai membiarkan agen AI otonom bekerja untukmu, kamu akan menjadi “CEO dari armada berisi ribuan agen”, yang menyelesaikan tujuan, visi, dan tugasmu, sementara kamu tidak terjebak dalam detail bagaimana segala masalah diselesaikan.
Tapi kamu juga bilang bahwa, dalam arti tertentu, cara kerja baru ini bisa membuat seseorang merasa kehilangan “denyut nadi” terhadap masalahnya.
Greg Brockman:
Apakah itu sesuatu yang baik atau buruk? Menurut saya ini hal yang bernilai plus dan minus.
Jadi saya pikir yang harus kita lakukan adalah: di satu sisi, mengakui kekuatan yang benar-benar diberikan alat-alat ini, dan di sisi lain meminimalkan kelemahan yang ikut muncul. Misalnya, memberi orang lebih banyak pengungkit, memberi orang kemampuan bertindak yang lebih besar—jika kamu punya visi, ada sesuatu yang ingin kamu selesaikan, kamu bisa mengerahkan satu armada agen untuk mengerjakannya. Itu jelas sangat kuat.
Tapi kalau kamu memikirkan cara kerja dunia pada akhirnya, tetap ada satu pihak yang harus bertanggung jawab. Misalnya kamu sedang membangun sebuah website, dan agenmu membuat kekacauan, lalu berdampak pada pengguna. Secara ketat, itu bukan salah agen; itu salah kamu. Jadi kamu harus peduli.
Saya rasa siapa pun yang benar-benar ingin menggunakan alat ini harus memahami bahwa agensi manusia dan tanggung jawab manusia adalah bagian inti dari keseluruhan sistem. Cara manusia menggunakan AI itu sendiri adalah fondasi yang sangat mendasar.
Jadi poin terpenting bagi saya adalah: sebagai pengguna agen-agen itu—kami juga begitu di OpenAI—kamu tidak boleh menghilangkan tanggung jawab. Kamu tidak bisa hanya bilang: “AI akan menyelesaikan semuanya sendiri.”
Alex:
Tentu. Tapi yang kamu sebut barusan adalah “merasa kehilangan denyut nadi terhadap masalah”—itu sepertinya bukan hal yang sama dengan “tanggung jawab”.
Greg Brockman:
Menurut saya keduanya terhubung. Intinya begini: jika kamu menjadi CEO tetapi terlalu jauh dari detail—misalnya kamu memimpin tim, menjalankan sebuah perusahaan, tetapi sudah kehilangan kesadaran akan kondisi di lapangan—itu biasanya tidak akan mengarah pada hasil yang baik. Jadi yang saya maksud bukanlah bahwa “manusia akhirnya tidak perlu tahu apa-apa tentang detail lagi” adalah sesuatu yang patut dicari.
Tentu saja, ada detail yang memang bisa diserahkan. Seperti ketika kamu memanggil general contractor untuk membangun rumahmu—ada banyak detail yang mungkin tidak perlu kamu pantau langsung karena kamu percaya mereka akan menanganinya. Tetapi pada akhirnya, jika ada detail kunci yang rusak, kamu tetap harus peduli dan tetap harus tahu.
Jadi ada perbedaan yang sangat penting: kamu tidak bisa secara membabi buta berkata, “Saya bersedia kehilangan rasa pegangan atas masalah.” Sebaliknya, kita harus aktif berkata: saya masih perlu menjaga pemahaman itu, menjaga sense of awareness, untuk benar-benar memahami kelebihan dan kelemahan sistem.
Dan ketika kamu mulai menjauh dari hal-hal yang lebih rendah dan lebih mekanis, alasan kamu bisa melakukannya adalah karena kamu sudah membangun kepercayaan dengan sistem ini—memastikan ia benar-benar bisa menyelesaikan tugas.
Alex:
Terakhir, tentang model: kamu tadi menyebutkan jalur evolusi model, dari pretraining, fine-tuning, hingga reinforcement learning—agar model semakin ahli menyelesaikan masalah langkah demi langkah, serta dapat menjalankan tugas di internet.
Dan sekarang kita sudah masuk ke tahap bahwa model belajar menggunakan alat melalui proses ini. Kalau saya tidak salah paham, langkah berikutnya dalam jalur evolusi ini apa?
Greg Brockman:
Saya pikir dunia yang kita jalani sekarang adalah dunia di mana kemampuan mesin terus semakin dalam dan terus meluas. Sebagian tentu terkait penggunaan alat, tetapi pada saat yang sama, kita juga perlu benar-benar membuat “alat” itu sendiri cukup baik. Misalnya, jika AI sudah bisa “mengoperasikan komputer” seperti manusia menggunakan sistem desktop, maka secara prinsip ia sudah bisa melakukan semua yang bisa kamu lakukan.
Tapi di sisi lain, kita juga harus menambahkan banyak lapisan infrastruktur untuk mesin. Misalnya di lingkungan perusahaan, bagaimana melakukan autentikasi identitas dan manajemen izin? bagaimana melakukan audit trail dan observabilitas? dan banyak teknologi pendukung lain perlu dibangun agar bisa menyamai perkembangan kemampuan model di lapisan dasar.
Dan dari arah keseluruhan, saya pikir tahap berikutnya akan mencakup hal seperti “antarmuka suara yang sangat natural”. Artinya, kamu bisa berbicara secara natural dengan komputer seperti sekarang, ia benar-benar memahami kamu, menyelesaikan tugas yang kamu butuhkan, serta memberi saran yang bernilai.
Misalnya, ia akan mengingatkan kamu: ada hal yang sedang kamu dorong, tapi macet—masalahnya ada di sini. Atau ketika kamu bangun di pagi hari, ia akan berkata: ini ringkasan harianmu, tadi malam agen-agenmu sudah mendorong berapa banyak pekerjaan.
Mungkin bahkan ia sudah mengelola bisnis untukmu—saya pikir ini akan menjadi salah satu skenario aplikasi besar untuk teknologi ini. Demokratisasi startup tentu akan terjadi. Ia akan memberi tahu: ada masalah di tempat-tempat tertentu; ada pelanggan yang sekarang sangat tidak puas dan ingin bicara langsung dengan manusia—kamu sebaiknya yang menangani. Hal-hal seperti itu akan terjadi.
Dan saya pikir tahap berikutnya juga mencakup: batas atas tujuan yang bisa dicapai manusia akan terus diangkat oleh teknologi ini. Kami sebenarnya sudah melihat tanda-tanda tren tersebut di ujungnya. Hal yang paling membuat saya bersemangat, bahkan bisa dianalogikan dengan langkah ke-37 di AlphaGo—itu adalah langkah yang manusia tidak akan pernah mainkan sebelumnya, memiliki kreativitas, dan mengubah pemahaman banyak orang tentang permainan itu.
Hal seperti itu akan terjadi di setiap bidang. Ini akan terjadi dalam sains, matematika, fisika, kimia; dalam ilmu material, biologi, kedokteran, penemuan obat; bahkan mungkin juga dalam sastra, puisi, dan banyak bidang lainnya. Ia akan membuka ruang baru untuk pemahaman kreatif dan perumusan ide manusia dengan cara yang bahkan belum bisa kita bayangkan saat ini.
Alex:
Tapi jika model sudah sekuat yang kamu katakan, kenapa hal itu belum benar-benar terjadi sekarang?
Greg Brockman:
Saya pikir ada semacam “kesenjangan keterlambatan kemampuan”—yaitu jarak besar antara kemampuan yang benar-benar dimiliki model dan cara orang-orang memanfaatkannya dalam praktik. Dalam beberapa hal, pemahaman kita tentang “apa yang benar-benar dimasukkan ke dalam model” juga masih terus terbentuk.
Jadi saya pikir, bahkan jika mulai sekarang teknologi tidak terus berkembang, dunia tetap akan mengalami perubahan besar—ekonomi yang digerakkan oleh komputasi dan digerakkan oleh AI akan tetap datang.
Tapi ada juga lapisan lain: saat ini yang paling kami kuasai adalah melatih model pada tugas-tugas yang “bisa diukur”. Sejak awal, kami memulainya dari soal matematika dan soal pemrograman, karena tugas-tugas itu punya validator yang sangat jelas: jawaban benar atau salah bisa ditentukan dengan tegas. Dalam beberapa waktu terakhir, untuk membawa model bertahap menuju masalah yang lebih terbuka, kami juga bergantung pada terus memperluas jangkauan hal-hal yang bisa divalidasi dan dinilai.
Dan AI itu sendiri sebenarnya bisa membantu melakukan hal itu. Jika AI cukup pintar dan cukup memahami tugas, ketika kamu memberikan kriteria penilaian, ia bisa belajar langkah demi langkah. Tapi pada tugas seperti penulisan kreatif—misalnya “bagaimana menilai apakah puisi ini bagus”—sulit untuk memberi skor.
Jadi dalam