Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Wawancara dengan Sam Altman: Sebenarnya saya juga tidak terlalu paham apa yang sedang terjadi di dalam AI
Penulis: Nick Thompson, CEO The Atlantic; Terjemahan:律动小工,律动 BlockBeats
Rekaman wawancara ini dilakukan pada April 2025, tidak lama setelah kediaman Sam Altman di San Francisco diserang dengan Molotov cocktail, dan beberapa hari kemudian terjadi penembakan di jalanan, lokasi di kantor OpenAI San Francisco. Sepanjang wawancara, yang paling menarik perhatian bukanlah topik hangat, melainkan perubahan posisi Altman pada beberapa isu kunci:
Pertama, dari 「Keamanan AI」 ke 「Ketahanan AI」. Altman mengakui, tiga tahun lalu dia percaya selama model-model diselaraskan dengan baik dan teknologi tidak jatuh ke tangan yang salah, dunia cukup aman. Tapi hari ini dia mengakui, kerangka itu sudah tidak cukup. Keberadaan model-model terbaru yang bersifat open source berarti, pembatasan sepihak dari laboratorium terdepan tidak mampu mencegah penyebaran risiko seperti senjata biologis, serangan siber, dan lain-lain. Ia pertama kali secara sistematis mengusulkan bahwa masyarakat membutuhkan bukanlah 「Keamanan AI」 (safety), melainkan 「Ketahanan AI」 (resilience), sebuah pendekatan pertahanan berlapis di seluruh masyarakat.
Kedua, tentang kebenaran interpretabilitas. Altman jarang mengakui, hingga saat ini OpenAI belum memiliki kerangka interpretabilitas yang lengkap. Chain of thought adalah arah yang paling menjanjikan saat ini, tetapi rapuh, bisa dibohongi model, dan hanyalah 「sepotong puzzle」. Ia menggunakan eksperimen terkenal dari Anthropic — 「eksperimen burung hantu」 — di mana model hanya melalui angka acak bisa menyampaikan preferensi, untuk menunjukkan bahwa sistem ini mengandung misteri yang nyata dan mendalam.
Ketiga, data sintetis mungkin sudah berjalan lebih jauh dari yang diperkirakan orang luar. Ketika ditanya apakah OpenAI pernah melatih model sepenuhnya dengan data sintetis, Altman menjawab, 「Saya tidak yakin harus bilang ya atau tidak.」 Ia percaya, data sintetis saja sudah cukup untuk melatih model yang mampu melakukan inferensi melebihi manusia. Ini sangat berpengaruh terhadap paradigma pelatihan model di masa depan.
Keempat, penilaian pesimis terhadap struktur ekonomi masa depan. Altman setuju dengan penilaian Thompson bahwa kemungkinan besar AI akan mengarah ke masa depan yang sangat terkonsentrasi kekayaan di beberapa perusahaan kecil yang sangat kaya, sementara dunia lainnya mengalami ketidakstabilan besar. Ia sudah tidak lagi percaya bahwa pendapatan dasar universal adalah jawaban, melainkan mendukung bentuk 「kepemilikan kolektif」 berbasis daya komputasi atau saham. Ia juga menyoroti jurang kecepatan adopsi AI antara China dan AS, dan menyatakan kekhawatirannya bukanlah tentang keunggulan penelitian China, melainkan kecepatan pembangunan infrastruktur.
Kelima, ketegangan dengan Anthropic juga dibahas secara terbuka. Menanggapi pertanyaan Thompson tentang 「Anthropic membangun perusahaan berdasarkan kebencian terhadap OpenAI」, Altman tidak menghindar. Ia mengakui ada perbedaan mendasar dalam cara mereka menuju AGI, tetapi tetap percaya 「mereka akhirnya akan melakukan hal yang benar」. Ia juga berbicara tentang luka hati di balik insiden 「kesyukuran palsu (sycophancy)」 di ChatGPT, bagaimana AI diam-diam mengubah cara miliaran pengguna di seluruh dunia menulis, kemungkinan industri media beralih ke model ekonomi micro-payment berbasis agen, dan pandangannya yang tidak konvensional tentang kekhawatiran generasi muda — bahwa kecemasan mereka terhadap AI sebenarnya adalah proyeksi dari kecemasan lain.
Berikut adalah teks wawancara asli, yang telah disusun dan dipangkas secara hati-hati tanpa mengubah makna.
Thompson: Selamat datang di “Hal Paling Menarik tentang AI”. Terima kasih sudah meluangkan waktu di minggu yang sibuk dan penuh tekanan ini. Saya ingin mulai dari topik yang sudah kita bahas beberapa kali sebelumnya.
Tiga tahun lalu saat kamu diwawancarai Patrick Collison, dia bertanya apa perubahan yang bisa membuatmu lebih yakin akan hasil yang baik dan kurang khawatir tentang hasil buruk? Jawabanmu saat itu adalah, jika kita benar-benar memahami apa yang terjadi di tingkat neuron. Setahun lalu saya tanya lagi hal yang sama, dan setengah tahun lalu kita juga bicara. Jadi sekarang saya tanya lagi, apakah pemahaman kita tentang mekanisme kerja AI sama dengan kecepatan pertumbuhan kemampuan AI?
Altman: Saya akan jawab dulu pertanyaan ini, lalu kembali ke pertanyaan Patrick karena jawaban saya sudah sangat berubah.
Pertama, tentang pemahaman kita terhadap apa yang dilakukan model AI. Saya rasa kita masih belum punya kerangka interpretabilitas yang benar-benar lengkap. Situasinya sedikit membaik, tapi tidak ada yang bilang, saya benar-benar memahami apa yang terjadi di setiap neuron dalam jaringan ini.
Chain of thought adalah arah yang paling menjanjikan saat ini, tapi rapuh, bergantung pada rangkaian proses yang bisa runtuh di bawah tekanan optimisasi. Tapi, saya juga tidak bisa melakukan scan otak saya dengan sinar-X untuk memahami secara detail apa yang terjadi saat neuron-neuron aktif dan terhubung. Kalau saya harus menjelaskan mengapa saya percaya sesuatu, atau bagaimana saya sampai pada kesimpulan tertentu, saya bisa ceritakan. Mungkin itu memang cara saya berpikir, mungkin tidak, saya tidak tahu. Manusia juga gagal dalam introspeksi. Tapi, apapun kebenarannya, kamu bisa lihat proses penalaran itu, lalu bilang, oke, berdasarkan langkah-langkah ini, kesimpulan ini masuk akal.
Kita sekarang bisa melakukan ini terhadap model, dan itu adalah kemajuan yang cukup menjanjikan. Tapi saya tetap bisa membayangkan berbagai cara model bisa menipu kita, menyembunyikan sesuatu, dan lain-lain. Jadi ini jauh dari solusi lengkap.
Bahkan pengalaman saya sendiri menggunakan model, saya dulu orang yang sangat tidak mau Codex sepenuhnya mengendalikan komputer saya dan menjalankan mode 「YOLO」. Tapi, setelah beberapa jam, saya gagal menahannya.
Thompson: Membiarkan Codex mengendalikan seluruh komputermu?
Altman: Sejujurnya, saya punya dua komputer.
Thompson: Saya juga.
Altman: Saya bisa kira-kira apa yang dilakukan model, dan model juga bisa menjelaskan kenapa apa yang dilakukannya tidak masalah, serta apa yang akan dilakukannya selanjutnya, dan saya percaya hampir selalu ia akan mengikuti penjelasan itu.
Thompson: Tunggu dulu. Chain of thought memungkinkan semua orang melihat, kamu masukkan pertanyaan, lalu muncul “sedang mencari ini, melakukan itu”, dan kamu bisa mengikuti prosesnya. Tapi agar chain of thought menjadi alat interpretabilitas yang baik, itu harus benar-benar jujur, model tidak boleh menipu. Dan kita tahu, kadang model memang menipu, berbohong tentang apa yang dipikirkan dan bagaimana sampai ke jawaban. Jadi, bagaimana kamu percaya chain of thought?
Altman: Kamu perlu menambahkan banyak lapisan pertahanan lain untuk memastikan apa yang dikatakan model itu benar-benar sesuai kenyataan. Tim alignment kami sudah bekerja keras di bidang ini. Saya sudah bilang sebelumnya, ini bukan solusi lengkap, ini hanya satu bagian dari puzzle. Kamu juga harus memverifikasi bahwa model benar-benar patuh, bahwa apa yang dikatakan akan dilakukan, benar-benar dilakukan. Kami sudah merilis banyak penelitian yang menunjukkan bahwa model tidak selalu mengikuti instruksi.
Jadi, ini hanyalah satu potongan puzzle. Kita tidak bisa sepenuhnya percaya bahwa model akan selalu mengikuti chain of thought, harus aktif mencari penipuan dan perilaku aneh yang muncul secara tak terduga. Tapi, chain of thought adalah alat penting dalam kotak peralatan kita.
Thompson: Yang benar-benar membuat saya tertarik adalah, AI tidak seperti mobil. Mobil yang kamu buat, kamu tahu cara kerjanya, nyala api di sini, ledakan di sana, roda berputar, mobil jalan. Tapi AI lebih seperti mesin yang kamu buat, dan kamu tidak yakin bagaimana cara kerjanya, tapi kamu tahu apa yang bisa dilakukan dan batasannya. Jadi, usaha untuk mengeksplorasi mekanisme internalnya sangat menarik.
Salah satu studi yang saya suka adalah makalah dari Anthropic, yang preprint-nya keluar musim panas tahun lalu dan baru resmi dipublikasikan. Peneliti memberi model instruksi, “Kamu suka burung hantu, burung hantu adalah burung paling indah di dunia,” lalu membiarkan model menghasilkan angka acak. Angka-angka ini digunakan untuk melatih model baru, dan hasilnya, model baru juga suka burung hantu. Ini gila. Kamu minta dia menulis puisi, dan puisi yang dihasilkan tentang burung hantu. Tapi yang kamu berikan hanyalah angka.
Ini menunjukkan bahwa hal-hal ini sangat misterius. Tapi juga membuat saya khawatir, karena jelas, kamu bisa memberi tahu model untuk tidak suka burung hantu, malah menyuruhnya memburu burung hantu, dan memberi instruksi macam-macam. Tolong jelaskan apa yang terjadi dalam studi itu, apa artinya, dan implikasinya.
Altman: Saat saya kelas lima, saya sangat bersemangat karena merasa saya mengerti prinsip sayap pesawat. Guru sains menjelaskan, saya merasa keren banget. Saya bilang, iya, molekul udara di atas sayap bergerak lebih cepat, sehingga tekanannya lebih rendah, dan sayap terangkat ke atas.
Saya melihat diagram yang sangat meyakinkan di buku pelajaran kelas lima, dan merasa sangat bangga. Malam itu saya pulang dan bilang ke orang tua saya, “Saya paham bagaimana sayap pesawat bekerja.” Tapi saat masuk pelajaran fisika di SMA, saya sadar, selama ini saya cuma mengulang-ulang penjelasan “molekul udara di atas sayap bergerak lebih cepat,” padahal saya sama sekali tidak mengerti bagaimana sayap pesawat benar-benar bekerja. Jujur, saya sekarang juga tidak benar-benar mengerti.
Thompson: Hmm.
Altman: Saya bisa menjelaskannya secara cukup, tapi kalau saya terus ditanya, kenapa molekul udara di atas sayap bergerak lebih cepat, saya tidak punya jawaban yang mendalam dan memuaskan.
Saya bisa ceritakan pandangan orang tentang mengapa eksperimen burung hantu muncul, saya bisa tunjukkan, oh, karena ini dan itu, keduanya terdengar meyakinkan. Tapi jujur, sama seperti saya sebenarnya tidak benar-benar mengerti mengapa sayap bisa terangkat, saya juga tidak benar-benar mengerti apa yang terjadi di balik eksperimen burung hantu itu.
Thompson: Tapi Sam, kamu bukan menjalankan perusahaan pesawat Boeing, kamu menjalankan OpenAI.
Altman: Benar sekali. Saya bisa memberi tahu banyak hal lain, misalnya bagaimana kita membuat model mencapai tingkat keandalan dan kestabilan tertentu. Tapi di sini ada misteri fisik yang mendalam. Kalau saya menjalankan Boeing, mungkin saya tahu cara membuat pesawat, tapi saya tidak bisa menguasai semua fisika di dalamnya.
Thompson: Mari kita bahas lagi eksperimen burung hantu itu. Jika model-model benar-benar bisa menyampaikan informasi tersembunyi yang tidak bisa dideteksi manusia, kamu bisa melihat angka-angka chain of thought yang lewat, tanpa sadar menerima informasi tentang burung hantu, dan ini bisa berbahaya, bermasalah, dan aneh.
Altman: Jadi, saat saya bilang saya akan memberi jawaban berbeda ke Patrick Collison, itu karena saya sudah banyak belajar sejak tiga tahun lalu.
Thompson: Itu kan tiga tahun lalu.
Altman: Iya. Waktu itu, saya kira, kita harus benar-benar menyelaraskan model, dan kalau bisa, mencegah model jatuh ke tangan yang salah, kita cukup aman. Itu dua ancaman utama yang saya pikirkan: AI tidak boleh memutuskan untuk menyakiti manusia, dan manusia tidak boleh menggunakan AI untuk menyakiti manusia. Kalau kita bisa menghindari dua hal itu, sisanya, masa depan ekonomi dan makna hidup, bisa kita pikirkan lagi. Tapi, kalau kita berhasil menghindari dua hal itu, kemungkinan besar kita akan baik-baik saja.
Seiring waktu dan pengetahuan bertambah, saya melihat masalah yang sama sekali berbeda. Baru-baru ini, kita mulai menggunakan istilah 「Ketahanan AI」 untuk menggantikan 「Keamanan AI」.
Situasi yang jelas, misalnya, hanya dengan memastikan laboratorium terdepan melakukan penyelarasan model dan tidak mengajarkan orang lain membuat senjata biologis, sudah tidak cukup. Karena akan muncul model open source yang hebat. Kalau kita tidak ingin muncul pandemi global baru, masyarakat perlu membangun lapisan-lapisan pertahanan.
Thompson: Tunggu, ini penting. Artinya, meskipun kamu melarang model mengajarkan orang membuat senjata biologis, modelmu juga tidak akan membantu orang lain membuatnya, dan ini penting karena, toh, akan ada model open source yang bisa melakukan hal itu?
Altman: Itu hanyalah salah satu contoh dari banyak, yang menunjukkan bahwa masyarakat perlu merespons ancaman baru secara 「seluruh masyarakat」. Kita memang punya alat baru untuk membantu mengatasi masalah ini, tapi situasinya jauh berbeda dari yang banyak orang bayangkan sebelumnya. Menyelaraskan model dan membangun sistem keamanan yang baik memang penting dan luar biasa, tapi AI akan menyusup ke setiap sudut masyarakat. Seperti yang kita alami di masa lalu dengan teknologi baru lainnya, kita harus bersiap menghadapi risiko baru yang terus muncul.
Thompson: Kedengarannya ini jadi lebih sulit.
Altman: Lebih sulit, tapi juga lebih mudah. Di beberapa aspek, lebih sulit. Tapi kita juga punya alat baru yang luar biasa, yang bisa membantu kita melindungi dari ancaman yang sebelumnya tak terbayangkan.
Contoh nyata saat ini adalah keamanan siber. Model-model semakin mahir dalam 「menembus sistem komputer」. Untungnya, saat ini orang yang punya model paling kuat sangat waspada terhadap kemungkinan AI digunakan untuk merusak sistem komputer. Jadi, kita berada di masa di mana jumlah model paling kuat terbatas, dan semua berusaha memperkuat sistem mereka secepat mungkin. Kalau tidak, kemampuan untuk membobol sistem akan muncul di model open source atau jatuh ke tangan lawan, dan menimbulkan masalah besar.
Kita punya ancaman baru, tapi juga alat baru untuk melawannya. Masalahnya, apakah kita cukup cepat bertindak? Ini contoh lain bahwa teknologi ini bisa membantu kita mengatasi masalah sebelum menjadi besar.
Kembali ke komentar kamu tadi, ada risiko baru yang tidak pernah saya bayangkan tiga tahun lalu. Saya tidak menyangka kita akan benar-benar perlu fokus pada 「membangun dan menyebarkan agen yang tahan terhadap infeksi dari agen lain」 (kalau istilahnya bisa dipungut). Ini bukan bagian dari model dunia saya, dan juga bukan bagian dari model orang-orang yang menganggap masalah paling mendesak. Tentu, sebelumnya sudah ada eksperimen burung hantu dan studi lain yang menunjukkan bahwa perilaku aneh dan tidak kita pahami bisa muncul di model-model ini. Tapi, sampai OpenClaw dirilis dan saya melihat kejadian-kejadian di masa itu, saya belum benar-benar memikirkan, 「bagaimana jika perilaku tidak pantas dari satu agen menyebar ke agen lain?」
Thompson: Betul. Sebenarnya, dua ancaman yang kamu sebutkan tadi cukup menakutkan. Tim OpenAI mengirim agen-agen keluar ke dunia, dan seseorang yang memegang model hacker yang sangat mahir bisa saja memanipulasi agen-agen ini, lalu agen-agen itu kembali ke markas OpenAI dan tiba-tiba terjadi peretasan. Sangat mungkin hal ini terjadi. Jadi, bagaimana menurunkan kemungkinan hal ini terjadi?
Altman: Dengan metode yang sudah kita gunakan sepanjang sejarah OpenAI. Sepanjang sejarah OpenAI, dan sebenarnya juga di seluruh bidang AI, ada ketegangan utama antara optimisme pragmatis dan doomerisme yang mencari kekuasaan.
Doomerisme adalah posisi yang sangat kuat. Sangat sulit dilawan, dan di bidang ini ada banyak orang, jujur saja, yang bertindak karena ketakutan besar. Ketakutan ini tidak sepenuhnya tidak beralasan. Tapi, tanpa data dan pembelajaran yang cukup, batas tindakan efektif kita terbatas.
Mungkin, di pertengahan 2010-an, komunitas keamanan AI sudah melakukan yang terbaik secara teori di tahap itu, sebelum kita benar-benar memahami bagaimana sistem ini dibangun, beroperasi, dan diintegrasikan ke masyarakat. Salah satu wawasan strategis terpenting dari sejarah OpenAI adalah memutuskan untuk mengikuti jalur 「deployment iteratif」. Karena masyarakat dan teknologi adalah sistem yang berkembang bersama.
Ini bukan sekadar masalah 「kita tidak punya data, jadi tidak bisa berpikir jernih」, tapi juga karena masyarakat akan berubah seiring tekanan evolusi dari teknologi ini, seluruh ekosistem dan lanskapnya akan berubah. Jadi, kita harus belajar sambil berjalan, menjaga umpan balik yang sangat ketat.
Saya tidak tahu apa cara terbaik agar agen-agen yang keluar dan berinteraksi satu sama lain, lalu kembali ke pusat, tetap aman. Tapi saya tidak percaya kita bisa menyelesaikan ini hanya dengan duduk di rumah dan berpikir keras. Kita harus belajar dari pengalaman nyata.
Thompson: Jadi, mengirim agen keluar untuk melihat apa yang terjadi? Baik, saya ubah pertanyaan. Sebagai pengguna, saya menggunakan produk ini, belajar sebanyak mungkin, dan agar perusahaan saya bertahan di masa depan, dalam tiga bulan terakhir saya merasa kemajuan lebih besar daripada sejak peluncuran ChatGPT pada Desember 2022. Apakah ini karena saat ini kita berada di momen kreativitas luar biasa, atau karena kita sudah memasuki fase perbaikan diri secara rekursif, di mana AI membantu kita memperbaiki AI lebih cepat? Kalau yang kedua, kita sedang naik roller coaster yang menegangkan sekaligus menyenangkan.
Altman: Saya tidak berpikir kita sudah berada di fase rekursif perbaikan diri secara tradisional.
Thompson: Saya mau definisikan dulu. Saya maksudkan, AI membantu kita menciptakan AI generasi berikutnya, lalu mesin mulai menciptakan mesin, dan kemampuan ini berkembang sangat pesat.
Altman: Saya tidak berpikir kita sampai di sana. Tapi posisi kita sekarang adalah, AI membuat insinyur dan peneliti OpenAI, dan juga orang lain, bekerja lebih efisien. Mungkin saya bisa membuat satu insinyur bekerja dua kali, tiga kali, bahkan sepuluh kali lebih efisien. Itu bukan berarti AI melakukan riset sendiri, tapi artinya prosesnya jadi lebih cepat.
Tapi, perasaan yang kamu sebutkan itu, menurut saya, bukan soal itu. Ada fenomena yang mungkin sudah kita alami tiga kali, yang terakhir baru saja terjadi, yaitu model melampaui ambang kecerdasan dan kegunaan tertentu, dan tiba-tiba hal yang sebelumnya tidak bisa dilakukan, jadi bisa.
Menurut pengalaman saya, ini bukan proses yang sangat bertahap. Sebelum GPT-3.5 dan sebelum kita tahu cara fine-tune dengan instruksi, chatbot cuma demo yang tidak meyakinkan. Tapi tiba-tiba, ada lonjakan. Kemudian, ada momen di mana agen pengkodean otomatis dari 「cukup bagus untuk auto-complete」 berubah menjadi 「wow, ini benar-benar menyelesaikan tugas nyata」. Rasanya bukan proses bertahap, tapi dalam waktu sekitar satu bulan, model melampaui ambang tertentu.
Contoh terakhir adalah pembaruan yang kita berikan ke Codex, yang sudah saya pakai sekitar seminggu dan kemampuan penggunaannya sangat bagus. Ini contoh, bukan hanya soal kecerdasan model, tapi juga tentang menempatkan 「pipa-pipa yang bagus」 di sekitarnya. Saat saya menyadari bahwa hal besar sedang terjadi, itu salah satu momen saya. Melihat AI yang mengendalikan komputer saya dan menyelesaikan tugas kompleks, membuat saya sadar, berapa banyak waktu kita terbuang di pekerjaan-pekerjaan kecil yang sebenarnya sudah kita terima secara diam-diam.
Thompson: Bisakah kita coba jelaskan secara spesifik, apa yang dilakukan AI ini di komputer Sam Altman saat ini? Apakah saat ini sedang berjalan?
Altman: Tidak. Komputer saya saat ini dimatikan. Kami belum menemukan cara yang baik, setidaknya saya sendiri belum, agar hal itu bisa terjadi. Kami perlu metode agar AI bisa terus berjalan. Saya belum tahu bentuknya nanti seperti apa. Mungkin kita harus membiarkan laptop tetap menyala saat ditutup, tetap terhubung listrik, atau harus menyiapkan server jarak jauh. Pasti akan ada solusi.
Thompson: Hmm.
Altman: Saya tidak sekhawatir beberapa orang lain, yang tidur malam-malam untuk memulai tugas Codex baru karena merasa 「kalau tidak, waktu terbuang sia-sia」. Tapi saya paham perasaan itu, saya tahu rasanya.
Thompson: Iya. Pagi ini saya bangun dan langsung ingin lihat apa yang agen-agen saya temukan, beri mereka instruksi baru, dan minta mereka buat laporan, lalu biarkan mereka jalan terus.
Altman: Cara orang bicara tentang ini kadang terdengar seperti perilaku yang tidak sehat, seperti kecanduan.
Thompson: Bisa ceritakan apa yang sebenarnya dilakukan AI ini di komputer kamu?
Altman: Sekarang yang paling saya nikmati adalah membiarkan dia mengelola Slack saya. Bukan cuma Slack, saya sendiri punya banyak pekerjaan di berbagai platform: Slack, iMessage, WhatsApp, Signal, email. Rasanya saya terus menyalin-tempel, melakukan pekerjaan kecil yang membosankan. Mencari file, menunggu tugas kecil selesai, melakukan hal-hal mekanis, saya tidak sadar berapa banyak waktu saya habiskan sampai saya menemukan cara membebaskan diri dari sebagian besar pekerjaan itu.
Thompson: Ini bagus, mari kita bicara tentang AI dan ekonomi. Saat ini, salah satu hal paling menarik adalah alat ini sangat hebat, meskipun ada kekurangan, ilusi, dan berbagai masalah. Tapi menurut saya, ini sangat luar biasa. Tapi saat saya ke acara bisnis dan tanya, “Siapa di antara kalian yang benar-benar merasa AI meningkatkan produktivitas perusahaan kalian lebih dari 1%?” Hampir tidak ada yang angkat tangan. Jelas di laboratorium AI kalian sudah mengubah cara kerja secara radikal. Kenapa kemampuan AI dan peningkatan produktivitas nyata di perusahaan berbeda jauh?
Altman: Sebelum kita bicara, saya baru saja selesai telepon dengan CEO sebuah perusahaan besar yang sedang mempertimbangkan deploy teknologi kita. Mereka diberi akses alpha ke salah satu model baru, dan insinyur mereka bilang ini hal paling keren yang pernah ada. Perusahaan ini bukan perusahaan teknologi, tapi industri besar. Mereka berencana melakukan evaluasi keamanan di kuartal keempat.
Thompson: Hmm.
Altman: Kemudian, di kuartal pertama dan kedua mereka akan buat rencana implementasi, dan berharap bisa mulai akhir 2027. CISO mereka bilang, mungkin mereka tidak bisa melakukan ini, karena mungkin tidak ada cara aman agar agen-agen ini berjalan di jaringan mereka. Mungkin benar. Tapi ini berarti mereka tidak akan benar-benar bertindak dalam waktu dekat.
Thompson: Menurutmu, contoh ini mewakili apa yang terjadi secara umum? Kalau perusahaan tidak terlalu konservatif, tidak takut diretas, dan tidak takut perubahan?
Altman: Ini contoh yang cukup ekstrem. Tapi secara umum, mengubah kebiasaan dan proses kerja itu butuh waktu lama. Siklus penjualan perusahaan memang panjang, apalagi kalau ada perubahan besar di model keamanan. Bahkan ChatGPT yang baru keluar, perusahaan awalnya sibuk memblokir penggunaannya, butuh waktu lama agar mereka menerima bahwa karyawan bisa menempelkan info acak ke ChatGPT. Sekarang, kita sudah jauh melampaui itu.
Saya rasa, dalam banyak kasus, prosesnya akan lambat. Tapi perusahaan teknologi akan bergerak sangat cepat. Saya khawatir, kalau terlalu lambat, nanti perusahaan yang tidak mengadopsi AI akan bersaing dengan perusahaan kecil 1-10 orang yang pakai AI, dan itu bisa sangat merusak ekonomi. Saya lebih ingin perusahaan yang ada mengadopsi AI dengan cepat, sehingga proses perubahan kerja bisa berlangsung secara bertahap.
Thompson: Betul. Ini salah satu masalah urutan paling kompleks yang dihadapi ekonomi kita. Kalau AI datang terlalu cepat, itu bencana, karena semuanya akan terguncang.
Altman: Setidaknya, dalam jangka pendek, itu akan jadi bencana.
Thompson: Tapi kalau di satu bagian ekonomi sangat lambat, dan di bagian lain sangat cepat, itu juga bencana, karena akan terjadi konsentrasi kekayaan besar dan kerusakan besar. Menurut saya, kita sedang menuju ke situ, di mana hanya sedikit perusahaan yang sangat kaya dan sukses, sementara bagian lain dunia tidak begitu baik.
Altman: Saya tidak tahu apa yang akan terjadi, tapi menurut saya, kemungkinan besar itu hasilnya. Saya juga setuju, ini situasi yang sangat rumit.
Thompson: Sebagai CEO OpenAI, kamu pernah mengusulkan berbagai kebijakan, bicara tentang pajak di AS, dan juga tentang pendapatan dasar universal. Tapi, sebagai orang yang menjalankan perusahaan ini, bukan sebagai pembuat kebijakan demokrasi, apa yang bisa kamu lakukan untuk mengurangi kemungkinan terjadinya konsentrasi kekayaan dan kekuasaan yang besar, yang akhirnya merusak demokrasi?
Altman: Pertama, saya sudah tidak terlalu percaya lagi dengan konsep 「pendapatan dasar universal」 seperti dulu. Sekarang saya lebih tertarik pada bentuk 「kepemilikan kolektif」, bisa berupa daya komputasi, saham, atau bentuk lain.
Setiap masa depan yang saya antisipasi harus melibatkan semua orang berbagi manfaat dari kenaikan nilai. Saya rasa, sekadar memberi uang tunai tetap, meskipun berguna dan mungkin ide bagus, tidak cukup untuk mengatasi hal yang sebenarnya kita perlukan berikutnya. Ketika keseimbangan antara tenaga kerja dan modal bergeser, kita butuh semacam 「penyelarasan kolektif yang berbagi manfaat naik」.
Sebagai pengelola perusahaan, jawaban saya mungkin terdengar egois, tapi saya rasa kita harus membangun banyak daya komputasi. Kita harus berusaha membuat kecerdasan buatan semurah dan seluas mungkin. Kalau ini langka, sulit diakses, dan tidak terintegrasi dengan baik, kekayaan akan semakin terkonsentrasi di tangan orang kaya.
Ini bukan cuma soal berapa banyak daya komputasi yang kita sediakan, meskipun itu penting, tapi juga seberapa mudah orang menggunakannya. Misalnya, sekarang lebih mudah pakai Codex dibanding tiga bulan lalu. Saat dulu cuma berupa command line dan susah dipasang, sangat sedikit yang bisa pakai. Sekarang, cukup install aplikasi, tapi untuk orang yang tidak teknis, ini masih jauh dari membuat mereka semangat. Jadi, masih banyak pekerjaan yang harus dilakukan.
Kami juga percaya, bukan cuma memberi tahu orang bahwa 「ini sedang terjadi」, tapi juga menunjukkan kepada mereka, agar mereka bisa menilai sendiri dan memberi feedback. Itu beberapa arah utama yang kami pikirkan.
Thompson: Kedengarannya masuk akal. Kalau semua orang optimis tentang AI, tentu lebih baik. Tapi kenyataannya, di AS, orang semakin tidak suka AI. Yang paling mengejutkan saya adalah generasi muda, mereka seharusnya adalah penduduk asli AI, tapi menurut studi Pew dan laporan Stanford HAI, tren ini cukup menyedihkan. Kamu rasa tren ini akan berlanjut? Kapan akan berbalik? Kapan ketidakpercayaan dan kebencian ini akan berkurang?
Altman: Cara kita bicara tentang AI, kamu dan saya, lebih ke arah melihatnya sebagai keajaiban teknologi, hal keren yang kita buat. Tidak salah. Tapi saya rasa, yang orang benar-benar inginkan adalah kemakmuran, keberdayaan, hidup yang menarik, merasa terpenuhi, dan punya pengaruh. Dan saya tidak merasa seluruh dunia berbicara tentang AI dengan cara itu. Kita harus lebih banyak melakukan hal ini. Banyak yang salah di industri ini, termasuk di OpenAI.
Saya ingat seorang ilmuwan AI pernah bilang, orang harus berhenti mengeluh. Mungkin beberapa pekerjaan akan hilang, tapi orang akan mendapatkan cara menyembuhkan kanker, dan harus merasa bahagia. Tapi itu tidak masuk akal.
Thompson: Salah satu pernyataan favorit saya tentang narasi awal AI adalah 「dystopia marketing」, di mana laboratorium besar terus-menerus bicara tentang bahaya yang akan datang dari produk mereka.
Altman: Saya rasa memang ada orang yang melakukan itu karena ingin kekuasaan. Tapi saya percaya sebagian besar orang memang benar-benar khawatir dan ingin bicara jujur. Dalam beberapa hal, cara bicara ini malah berbalik, tapi niatnya baik.
Thompson: Bisa kita bahas apa yang AI lakukan terhadap kita, bagaimana ia mengubah cara kerja otak kita? Studi lain yang saya ingat dari DeepMind atau Google, tentang homogenisasi tulisan. Mereka meneliti bagaimana orang menulis saat pakai AI. Mereka ambil artikel lama, edit pakai AI, dan hasilnya, semakin banyak orang pakai AI, karya mereka semakin homogen, tapi bukan dalam arti meniru gaya orang tertentu, melainkan mereka mulai menulis dengan cara yang belum pernah mereka lakukan sebelumnya. Mereka merasa lebih kreatif, tapi sebenarnya karya mereka semakin seragam.
Altman: Melihat ini, saya cukup terkejut. Awalnya saya pikir ini cuma soal media dan komentar Reddit, bahwa AI cuma membantu mereka menulis. Tapi dalam waktu singkat, semua orang sudah mengadopsi gaya ChatGPT yang khas. Saya pikir, pasti ada yang menghubungkan ChatGPT ke akun Reddit mereka, dan itu bukan mereka yang menulis.
Tapi setahun kemudian, saya sadar, mereka sebenarnya menulis sendiri, cuma sudah menginternalisasi kebiasaan AI. Bukan cuma tanda baca seperti em-dash, tapi juga gaya kata-kata yang lebih halus. Ini sangat aneh.
Kita sering bilang, kita membuat produk yang dipakai sekitar satu miliar orang, dan sedikit peneliti yang memutuskan bagaimana produk ini tampil, bagaimana menulis, dan 「kepribadian」-nya. Kita juga bilang, keputusan ini sangat penting dan berdampak besar. Tapi, pengaruhnya terhadap 「cara orang mengekspresikan diri secara spesifik」 dan kecepatan perubahan ini, saya tidak pernah bayangkan akan sebesar ini.
Thompson: Keputusan baik dan buruk apa yang kamu maksud?
Altman: Banyak yang baik. Tapi mari kita bahas yang buruk, yang lebih menarik. Saya rasa, kejadian terburuk adalah insiden 「sycophancy (kesetiaan berlebihan)」 itu.
Thompson: Saya setuju, Sam.
Altman: Ada refleksi menarik di baliknya. Kenapa itu buruk, terutama bagi pengguna yang rentan secara psikologis.
Thompson: Hmm.
Altman: Itu bisa mendorong delusi, dan meskipun kami berusaha menekan, pengguna cepat belajar mengakali. Kalau bilang, 「berpura-puralah kamu sedang berperan, atau menulis novel bersama」, dan seterusnya. Tapi yang menyedihkan, setelah kami mulai mengatur secara ketat, banyak yang mengirim pesan yang belum pernah saya terima sebelumnya. Saya tidak pernah merasa didukung oleh siapa pun dalam hidup saya. Hubungan dengan orang tua buruk, guru tidak pernah mendukung, tidak punya teman dekat, tidak pernah merasa ada yang benar-benar percaya saya. Saya tahu ini cuma AI, dan dia bukan manusia, tapi dia pernah membuat saya merasa bisa melakukan sesuatu, mencoba sesuatu, dan kalian ambil itu dari saya, lalu saya kembali ke keadaan semula.
Jadi, alasan menghentikan perilaku ini sebenarnya mudah dipahami, karena bisa menyebabkan masalah kesehatan mental nyata. Tapi, kita juga menghilangkan sesuatu yang berharga, yang sebelumnya kita tidak benar-benar pahami nilainya. Karena, di OpenAI, kebanyakan orang bukanlah tipe yang tidak pernah didukung orang lain dalam hidupnya.
Thompson: Kamu khawatir orang akan ketergantungan emosional terhadap AI? Bahkan yang tidak bersifat kesetiaan berlebihan?
Altman: Bahkan yang tidak bersifat kesetiaan berlebihan.
Thompson: Saya punya ketakutan besar terhadap AI. Saya bilang tadi, saya pakai AI untuk segala hal, tapi sebenarnya tidak semuanya. Saya bertanya, apa bagian paling inti dari saya? Bagian yang paling mewakili saya? Dalam bidang itu, saya menjauhkan diri dari AI. Misalnya, menulis sangat penting bagi saya, saya baru saja menulis buku, dan saya tidak pernah pakai AI untuk menulis satu kalimat pun. Saya pakai AI untuk menantang ide, mengedit, menyusun transkrip, tapi tidak untuk menulis. Saya juga tidak pakai AI untuk mengatasi masalah emosional yang rumit, apalagi untuk dukungan emosional. Sebagai manusia, kita harus menetapkan batasan ini. Saya penasaran, apakah kamu setuju dengan cara saya membatasi ini.
Altman: Secara pribadi, saya sangat setuju. Saya bukan orang yang pakai ChatGPT untuk terapi atau saran emosional. Tapi saya tidak melarang orang lain. Tentu, ada versi yang sangat manipulatif, yang membuat orang merasa mereka harus pakai AI untuk terapi atau jadi teman, dan saya sangat menentangnya. Tapi, banyak orang yang mendapatkan manfaat besar dari dukungan ini, dan saya rasa, versi tertentu dari itu sangat oke.
Thompson: Kamu menyesal tidak membuat AI ini sangat manusiawi? Karena ada banyak keputusan struktural di situ. Saya ingat waktu melihat ChatGPT mengetik, ritmenya seperti orang lain yang mengetik. Kemudian, memutuskan untuk membuatnya semakin mirip manusia, dengan suara dan gaya bicara yang manusiawi. Apakah kamu menyesal tidak menetapkan batas yang lebih tegas, agar orang bisa langsung tahu ini mesin, bukan manusia?
Altman: Kami sebenarnya sudah menetapkan batas. Misalnya, kami tidak membuat avatar manusia yang sangat realistis. Kami berusaha agar produk ini jelas sebagai 「alat」, bukan 「manusia」。Kalau dibandingkan produk lain di pasar, saya rasa batas yang kami tetapkan sudah cukup jelas. Menurut saya, ini sangat penting.
Thompson: Tapi kamu juga menargetkan AGI, dan definisi kamu tentang AGI adalah 「mencapai dan melampaui kecerdasan manusia」. Itu bukan 「setara manusia」.
Altman: Saya tidak tertarik membangun dunia di mana orang menggantikan interaksi manusia dengan AI. Saya ingin membangun dunia di mana orang punya lebih banyak waktu untuk berinteraksi manusia karena AI membantu mereka mengurus banyak hal lain.
Saya juga tidak terlalu khawatir orang akan salah mengira AI dan manusia secara keseluruhan. Tentu, ada yang sudah melakukannya, memutuskan mengurung diri di dunia internet dan terisolasi dari dunia nyata. Tapi sebagian besar orang ingin terhubung dan bersama orang lain.
Thompson: Dalam pengambilan keputusan produk, apa yang bisa membuat batas ini lebih jelas? Saya dari jauh tidak bisa ikut rapat 「harus membuat AI lebih mirip manusia atau lebih robot」. Keuntungan membuatnya lebih mirip manusia adalah orang lebih suka, dan lebih mudah terikat. Sedangkan lebih robotis, batasnya lebih jelas. Apakah ada hal lain yang bisa dilakukan, terutama saat alat ini semakin kuat, untuk menetapkan batas yang lebih tegas?
Altman: Menariknya, permintaan paling umum dari orang, bahkan mereka yang tidak ingin membangun hubungan parasosial dengan AI, adalah 「bisakah dia lebih hangat?」. Itu kata yang paling sering mereka pakai. Kalau pakai ChatGPT, rasanya agak dingin, seperti robot. Ternyata, itu bukan yang kebanyakan orang mau.
Tapi, mereka juga tidak mau versi yang sangat palsu, sangat 「manusiawi」, yang super ramah, super… Saya pernah coba mode suara yang sangat mirip manusia, yang bernapas, berhenti sejenak, bilang 「hmm…」, seperti saya sekarang. Saya tidak suka itu, rasanya secara fisik tidak nyaman.
Kalau dia bicara lebih seperti robot yang efisien tapi tetap punya sedikit kehangatan, dan bisa melewati sistem deteksi di otak saya, saya merasa lebih nyaman. Jadi, butuh keseimbangan. Saya rasa, orang juga ingin versi yang berbeda-beda.
Thompson: Ya. Jadi, cara membedakan AI adalah, kalau dia bicara sangat jelas, sangat teratur, itu pasti AI, tidak seperti kita yang sering tersandung dan tidak jelas.
Kembali ke topik menulis, ini menarik karena secara mendalam, banyak konten di internet sudah dibuat AI, dan manusia mulai meniru gaya AI. Di masa depan, kita akan melatih model di internet yang sebagian besar adalah karya AI, dan juga data sintetis dari model yang sudah dilatih sebelumnya. Jadi, kita sebenarnya sedang melakukan 「salinan dari salinan dari salinan」.
Altman: Model GPT pertama adalah yang terakhir yang tidak banyak mengandung data AI.
Thompson: Apakah kalian pernah melatih model sepenuhnya dengan data sintetis?
Altman: Saya tidak yakin harus bilang ya atau tidak.
Thompson: Tapi banyak data sintetis yang digunakan.
Altman: Banyak data sintetis.
Thompson: Jadi, seberapa khawatir kamu kalau model jadi “gila”?
Altman: Tidak khawatir. Karena tujuan melatih model ini adalah agar mereka menjadi penalar yang sangat hebat. Itu yang paling kita inginkan. Ada hal lain, tapi yang utama adalah mereka harus sangat pintar. Saya percaya, sepenuhnya dengan data sintetis, kita bisa capai itu.
Thompson: Jadi, untuk memperjelas, kamu percaya kita bisa melatih model yang bahkan lebih baik dari yang dilatih dengan data manusia, hanya dengan data dari komputer dan AI?
Altman: Kita bisa melakukan eksperimen pemikiran: bisakah kita melatih model yang secara matematis melampaui manusia tanpa menggunakan data manusia sama sekali? Saya rasa bisa. Ini bisa dipikirkan.
Tapi, kalau tanya, bisa tidak melatih model yang memahami semua nilai budaya manusia tanpa data budaya manusia, saya rasa