Wawancara terbaru Sam Altman mengaku: sebenarnya saya juga tidak terlalu paham apa yang sedang terjadi di dalam AI

Judul Video: 《Bisakah Kita Percaya pada AI? Sam Altman Berharap Begitu | Hal Paling Menarik dalam AI》

Pembuat Video: Nick Thompson, CEO The Atlantic

Terjemahan:律动小工,律动 BlockBeats

Penulis: Catatan dari律动:Rekaman wawancara ini dilakukan pada April 2025, tidak lama setelah kediaman Sam Altman di San Francisco diserang dengan molotov koktail dan beberapa hari kemudian terjadi penembakan di jalanan, lokasi di kantor OpenAI San Francisco.

Sepanjang wawancara yang paling menarik perhatian bukanlah topik hangat, melainkan perubahan posisi Altman pada beberapa isu kunci:

Pertama, dari “Keamanan AI” ke “Ketahanan AI”. Altman mengakui, tiga tahun lalu dia percaya selama model-modelnya diselaraskan dan teknologi buruk dicegah agar tidak jatuh ke tangan yang salah, dunia cukup aman. Tapi hari ini dia mengakui, kerangka itu sudah tidak cukup. Keberadaan model-model open source terbaru berarti, pembatasan satu pihak dari laboratorium terdepan tidak mampu mencegah penyebaran risiko seperti senjata biologis dan serangan siber. Ia pertama kali secara sistematis mengusulkan bahwa yang dibutuhkan masyarakat bukanlah keamanan AI (safety), melainkan ketahanan AI (resilience), sebuah pendekatan pertahanan berlapis di seluruh masyarakat.

Kedua, tentang kebenaran dari interpretabilitas. Altman jarang mengakui, hingga kini OpenAI belum memiliki kerangka interpretabilitas yang lengkap. Chain of thought adalah arah yang paling menjanjikan saat ini, tetapi rapuh, bisa dibohongi model, dan hanyalah “sepotong puzzle”. Ia menggunakan eksperimen terkenal Anthropic—“eksperimen burung hantu”—di mana model hanya melalui angka acak bisa menyampaikan preferensi, untuk menunjukkan adanya misteri mendalam dalam sistem ini.

Ketiga, data sintetis mungkin sudah melangkah lebih jauh dari yang diperkirakan orang. Ketika ditanya apakah OpenAI pernah melatih model sepenuhnya dengan data sintetis, Altman menjawab “Saya tidak yakin harus mengatakan ya atau tidak.” Ia percaya, data sintetis saja sudah cukup untuk melatih model yang mampu melakukan inferensi melebihi manusia. Ini sangat berpengaruh terhadap paradigma pelatihan model di masa depan.

Keempat, penilaian pesimis terhadap struktur ekonomi masa depan. Altman setuju dengan Thompson bahwa kemungkinan besar AI akan mengarah ke masa depan yang sangat terkonsentrasi kekayaan di tangan beberapa perusahaan kecil, sementara dunia lainnya mengalami gejolak besar. Ia sudah tidak lagi percaya bahwa pendapatan dasar universal adalah solusi, melainkan mendukung bentuk “kepemilikan kolektif” berbasis daya komputasi atau saham. Ia juga menyoroti kesenjangan kecepatan adopsi AI antara China dan AS, dan menyatakan kekhawatirannya bukanlah keunggulan China dalam publikasi riset, melainkan kecepatan pembangunan infrastruktur.

Kelima, ketegangan dengan eksperimen Anthropic juga dibahas secara terbuka. Menanggapi pertanyaan Thompson tentang “Anthropic mendirikan perusahaan karena membenci OpenAI,” Altman tidak menghindar. Ia mengakui ada perbedaan mendasar dalam pendekatan menuju AGI, tetapi tetap percaya “mereka akhirnya akan melakukan hal yang benar.”

Selain itu, Altman berbicara tentang insiden “sycophancy” pada ChatGPT—pesan patah hati dari orang yang merasa “pertama kali orang percaya pada saya,” perubahan cara menulis miliaran pengguna di seluruh dunia secara diam-diam, kemungkinan industri media beralih ke ekonomi mikro pembayaran melalui agen, dan sebuah pandangan kontra-intuitif tentang generasi muda—bahwa kecemasan mereka terhadap AI sebenarnya adalah proyeksi dari kecemasan lain.

Berikut adalah teks wawancara lengkap, yang telah disusun dan disunting secara moderat tanpa mengubah makna aslinya.

Thompson: Selamat datang di “Hal Paling Menarik dalam AI.” Terima kasih sudah meluangkan waktu di minggu yang sibuk dan penuh tekanan ini. Saya ingin mulai dari beberapa topik yang sudah kita bahas sebelumnya.

Tiga tahun lalu, saat kamu diwawancarai Patrick Collison, dia bertanya apa perubahan yang bisa membuatmu lebih yakin akan hasil yang baik dan kurang khawatir akan hasil yang buruk? Jawabanmu saat itu adalah jika kita benar-benar memahami apa yang terjadi di tingkat neuron. Setahun lalu saya tanya lagi hal yang sama, dan setengah tahun lalu kita juga bicara. Jadi sekarang saya tanya lagi, apakah pemahaman kita tentang mekanisme kerja AI sama dengan kecepatan pertumbuhan kemampuan AI?

Altman: Saya akan jawab dulu pertanyaan ini, lalu kembali ke pertanyaan Patrick karena jawaban saya sudah sangat berubah.

Mari kita mulai dari pemahaman kita tentang apa yang dilakukan model AI. Saya rasa kita masih belum punya kerangka interpretabilitas yang benar-benar lengkap. Situasinya sedikit membaik, tapi tidak ada yang bilang, saya benar-benar memahami setiap hal yang terjadi di dalam neural network ini.

Chain of thought (rantai pemikiran) adalah arah yang paling menjanjikan saat ini, tapi rapuh, bergantung pada rangkaian hal yang tidak boleh runtuh di bawah tekanan optimisasi. Tapi, lagi pula, saya sendiri tidak bisa memindai otak saya dengan X-ray untuk memahami secara tepat apa yang terjadi saat neuron-neuron meledak dan terhubung. Kalau saya harus menjelaskan mengapa saya percaya sesuatu, atau bagaimana saya sampai pada kesimpulan tertentu, saya bisa ceritakan. Mungkin itu memang cara saya berpikir, atau mungkin tidak, saya tidak tahu. Manusia juga gagal dalam introspeksi. Tapi, apapun kenyataannya, kamu bisa lihat proses penalaran itu, lalu bilang, oke, berdasarkan langkah-langkah ini, kesimpulan ini masuk akal.

Saat ini, kita bisa melakukan ini terhadap model, dan itu adalah kemajuan yang cukup menjanjikan. Tapi saya tetap bisa membayangkan berbagai cara model bisa menipu kita, menyembunyikan sesuatu, dan lain-lain. Jadi, ini jauh dari solusi lengkap.

Bahkan pengalaman saya sendiri menggunakan model, saya dulu orang yang sangat yakin tidak akan membiarkan Codex mengendalikan komputer saya sepenuhnya, menjalankan mode “YOLO”. Tapi, saya bertahan beberapa jam, lalu akhirnya gagal.

Thompson: Membiarkan Codex mengendalikan seluruh komputer kamu?

Altman: Sejujurnya, saya punya dua komputer.

Thompson: Saya juga punya dua.

Altman: Saya bisa kira apa yang dilakukan model, dan model juga bisa menjelaskan kenapa apa yang dilakukannya tidak masalah, serta apa yang akan dilakukannya selanjutnya, dan saya percaya hampir selalu akan mengikuti penjelasan itu.

Thompson: Tunggu dulu. Chain of thought memungkinkan semua orang melihat, kamu masukkan pertanyaan, lalu muncul “sedang mencari ini, sedang melakukan itu,” dan kamu bisa mengikuti prosesnya. Tapi agar chain of thought menjadi alat interpretabilitas yang baik, itu harus benar-benar jujur, model tidak boleh menipu. Dan kita tahu, kadang model memang menipu, berbohong tentang apa yang dipikirkan dan bagaimana sampai ke jawaban. Jadi, bagaimana kita bisa percaya chain of thought?

Altman: Kamu perlu menambahkan banyak lapisan pertahanan lain untuk memastikan apa yang dikatakan model itu benar-benar sesuai kenyataan. Tim alignment kami sudah bekerja keras di bagian ini. Saya sudah bilang, ini bukan solusi lengkap, ini hanya satu bagian dari puzzle. Kamu harus memverifikasi bahwa model benar-benar setia menjalankan apa yang dikatakan akan dilakukan. Kami sudah merilis banyak penelitian yang menunjukkan model tidak selalu mengikuti instruksi.

Jadi, ini hanyalah satu potongan puzzle. Kita tidak bisa sepenuhnya percaya bahwa model akan selalu mengikuti chain of thought, harus aktif mencari penipuan dan perilaku aneh yang muncul secara tak terduga. Tapi, chain of thought tetap alat penting dalam kotak peralatan kita.

Thompson: Yang benar-benar membuat saya tertarik adalah, AI tidak seperti mobil. Mobil kamu buat, kamu tahu cara kerjanya, nyalakan mesin, ledakan terjadi, roda berputar, mobil jalan. Tapi AI lebih seperti mesin yang kamu buat, dan kamu tidak yakin bagaimana cara kerjanya, tapi kamu tahu apa yang bisa dilakukan dan batasannya. Jadi, usaha untuk mengeksplorasi mekanisme internalnya sangat menarik.

Salah satu studi yang saya suka adalah makalah dari Anthropic, yang preprint-nya keluar musim panas tahun lalu dan baru resmi dipublikasikan. Peneliti memberi model instruksi: “Kamu suka burung hantu, burung hantu adalah burung paling indah di dunia,” lalu membiarkan model menghasilkan angka acak. Kemudian angka-angka ini digunakan untuk melatih model baru, dan hasilnya, model baru juga suka burung hantu. Ini gila. Kamu minta dia menulis puisi, dan puisi yang dihasilkan tentang burung hantu. Tapi yang kamu berikan hanyalah angka.

Ini menunjukkan bahwa hal-hal ini sangat misterius. Tapi juga membuat saya khawatir, karena jelas, kamu bisa saja tidak memberi tahu model bahwa kamu suka burung hantu, dan malah suruh dia membunuh burung hantu, atau memberi instruksi lain yang berbahaya. Tolong jelaskan apa yang terjadi dalam studi ini, apa artinya, dan implikasinya.

Altman: Saat saya di kelas lima, saya sangat bersemangat karena merasa saya mengerti prinsip sayap pesawat. Guru sains menjelaskan, dan saya merasa keren banget. Saya bilang, iya, molekul udara di atas sayap bergerak lebih cepat, sehingga tekanan di sana lebih rendah, dan sayap terangkat ke atas.

Saya melihat diagram yang sangat meyakinkan di buku pelajaran kelas lima, dan merasa sangat bangga. Malam itu, saya pulang dan bilang ke orang tua saya, “Saya sudah paham bagaimana sayap pesawat bekerja.” Tapi saat masuk pelajaran fisika di SMA, saya sadar, selama ini saya cuma mengulang-ulang “molekul udara di atas sayap bergerak lebih cepat,” tapi sebenarnya saya tidak benar-benar mengerti bagaimana sayap bisa terangkat. Jujur, saya sendiri sekarang juga tidak benar-benar mengerti.

Thompson: Hmm.

Altman: Saya bisa menjelaskannya secara kasar, tapi kalau ditanya kenapa molekul di atas sayap bergerak lebih cepat, saya tidak punya jawaban mendalam yang memuaskan.

Saya bisa ceritakan pandangan orang tentang hasil eksperimen burung hantu, dan menunjukkan bahwa itu karena ini dan itu, yang terdengar meyakinkan. Tapi jujur, sama seperti saya tidak benar-benar mengerti mengapa sayap bisa terangkat, saya juga tidak benar-benar tahu.

Thompson: Tapi Sam, kamu bukan orang yang mengelola Boeing, kamu mengelola OpenAI.

Altman: Benar sekali. Saya bisa memberi tahu banyak hal lain, misalnya bagaimana kita membuat model mencapai tingkat keandalan dan kestabilan tertentu. Tapi di situ ada misteri fisik yang mendalam. Kalau saya mengelola Boeing, mungkin saya tahu cara membuat pesawat, tapi saya tidak bisa menguasai semua fisika di dalamnya.

Thompson: Mari kita bahas eksperimen burung hantu lagi. Jika model bisa menyampaikan informasi tersembunyi yang tidak bisa dideteksi manusia, dan kamu melihat angka-angka chain of thought melintas tanpa sadar, itu bisa berbahaya dan rumit.

Altman: Jadi, saat saya bilang saya akan memberi jawaban berbeda kepada Patrick Collison, itu karena pengalaman tiga tahun lalu.

Thompson: Itu tiga tahun lalu.

Altman: Betul. Tiga tahun lalu, saya kira, kita harus fokus pada bagaimana menyelaraskan model, dan jika bisa, mencegah model jatuh ke tangan yang salah, kita cukup aman. Itu dua ancaman utama yang saya pikirkan: AI tidak boleh memutuskan untuk menyakiti manusia, dan manusia tidak boleh menggunakan AI untuk menyakiti manusia. Kalau kita bisa menghindari dua hal ini, sisanya—masa depan ekonomi, makna hidup—bisa kita pikirkan lagi nanti. Tapi kemungkinan besar kita akan baik-baik saja.

Seiring waktu dan pengetahuan kita bertambah, saya melihat masalah yang berbeda sama sekali. Baru-baru ini, kita mulai menggunakan istilah “ketahanan AI” menggantikan “keamanan AI.”

Hal-hal yang jelas, seperti memastikan model-model terbaru diselaraskan dan tidak diajari membuat senjata biologis, sudah tidak cukup. Karena akan muncul model open source yang hebat. Kalau kita tidak ingin muncul pandemi global baru, masyarakat perlu membangun lapisan-lapisan pertahanan.

Thompson: Tunggu, saya mau berhenti sebentar. Maksudnya, meskipun kamu melarang model mengajarkan orang membuat senjata biologis, model itu tetap tidak akan membantu orang lain membuatnya, dan pentingnya hal ini lebih kecil dari yang kamu kira, karena akan ada model open source yang sangat bagus yang bisa digunakan orang lain untuk tujuan itu?

Altman: Itu hanyalah salah satu contoh dari banyak, yang menunjukkan bahwa masyarakat perlu mengambil pendekatan “seluruh masyarakat” untuk menghadapi ancaman baru. Kita memang punya alat baru untuk membantu mengatasi masalah ini, tapi situasinya jauh berbeda dari yang kita bayangkan sebelumnya. Menyelaraskan model dan membangun sistem keamanan yang baik memang penting dan luar biasa. Tapi, AI akan menyusup ke setiap sudut masyarakat. Seperti yang kita alami di masa lalu dengan teknologi baru, kita harus bersiap menghadapi risiko baru yang muncul satu per satu.

Thompson: Kedengarannya ini jadi lebih sulit.

Altman: Lebih sulit, tapi juga lebih mudah. Dalam beberapa aspek, lebih sulit. Tapi kita juga punya alat baru yang luar biasa untuk melakukan perlindungan yang sebelumnya tak terbayangkan.

Contohnya, keamanan siber. Model-model sekarang sangat mahir dalam “menyerang sistem komputer.” Untungnya, orang yang punya model paling kuat saat ini sangat waspada terhadap kemungkinan AI digunakan untuk merusak sistem komputer. Jadi, kita berada di periode di mana jumlah model paling kuat terbatas, dan semua berusaha memperkuat sistem mereka secepat mungkin. Kalau tidak, kemampuan masuk ke sistem akan dengan cepat muncul di model open source atau dimiliki pihak lain, dan menimbulkan banyak masalah.

Kita menghadapi ancaman baru, tapi juga punya alat baru untuk melawannya. Masalahnya, apakah kita cukup cepat bertindak? Ini contoh baru bahwa teknologi ini bisa membantu kita menyelesaikan masalah sebelum menjadi besar.

Kembali ke komentar kamu sebelumnya, ada risiko baru yang tidak pernah saya bayangkan tiga tahun lalu. Saya tidak menyangka kita akan perlu fokus pada “membangun dan menyebarkan agen yang tahan terhadap infeksi dari agen lain (tanpa kata lain yang lebih baik).” Ini bukan bagian dari model dunia saya, dan juga bukan bagian dari model orang-orang yang menganggap masalah ini sangat mendesak. Ternyata, ada hasil eksperimen serupa burung hantu dan studi lain yang menunjukkan bahwa perilaku aneh dan tidak kita pahami bisa muncul dari model ini. Tapi, sampai OpenClaw dirilis dan saya melihat kejadian saat itu, saya belum benar-benar memikirkan, “Bagaimana perilaku tidak semestinya dari satu agen menyebar ke agen lain?”

Thompson: Betul. Sebenarnya, dua ancaman yang kamu sebutkan tadi sangat menakutkan jika digabungkan. Agen-agen OpenAI berjalan di dunia, dan seseorang yang punya model hacker hebat bisa memanipulasi agen-agen ini, lalu agen-agen itu kembali ke markas, dan tiba-tiba kamu diserang. Sangat mungkin hal ini terjadi. Jadi, bagaimana kita mengurangi kemungkinan hal ini?

Altman: Dengan metode yang sudah kita gunakan selama ini di OpenAI. Secara umum, ini adalah perjuangan antara optimisme pragmatis dan doomerisme yang mencari kekuasaan.

Doman doomer sangat kuat. Sangat sulit dilawan, dan banyak orang di bidang ini, jujur saja, bertindak karena ketakutan besar. Ketakutan ini tidak sepenuhnya tidak beralasan. Tapi, tanpa data dan pembelajaran yang cukup, langkah-langkah efektif terbatas.

Mungkin, di pertengahan 2010-an, komunitas keamanan AI sudah melakukan yang terbaik yang bisa dilakukan secara teori saat itu, sebelum kita benar-benar memahami bagaimana sistem ini dibangun, beroperasi, dan diintegrasikan ke masyarakat. Salah satu wawasan strategis terpenting dari sejarah OpenAI adalah memilih jalur “deployment iteratif.” Karena, masyarakat dan teknologi berkembang bersama.

Ini bukan sekadar masalah “kita tidak punya data untuk memikirkan semuanya,” tapi juga karena masyarakat akan berubah mengikuti tekanan evolusi dari teknologi ini, seluruh ekosistem dan lanskapnya akan berubah. Jadi, kita harus belajar sambil berjalan, menjaga umpan balik yang sangat ketat.

Saya tidak tahu cara terbaik agar agen-agen yang keluar dan berinteraksi satu sama lain, lalu kembali ke pusat, tetap aman. Tapi saya yakin, kita tidak bisa menyelesaikan ini hanya dengan duduk di rumah dan berpikir keras. Kita harus belajar dari pengalaman nyata.

Thompson: Jadi, maksudmu, mengirim agen keluar untuk melihat apa yang terjadi? Baik, saya ubah pertanyaan. Sebagai pengguna, saya merasa bahwa dalam tiga bulan terakhir, saya membuat kemajuan lebih dari apa pun sejak ChatGPT dirilis Desember 2022. Apakah ini karena kita sedang berada di masa kreativitas luar biasa, atau karena AI membantu kita mempercepat proses perbaikan AI sendiri—karena jika yang kedua, kita sedang naik roller coaster yang sangat menegangkan dan menyenangkan.

Altman: Saya tidak berpikir kita sudah berada dalam fase “perbaikan diri secara rekursif” seperti yang biasanya orang bayangkan.

Thompson: Saya mau definisikan dulu. Maksud saya, AI membantu kamu menciptakan AI generasi berikutnya, lalu mesin mulai menciptakan mesin, dan kekuatannya meningkat pesat.

Altman: Saya tidak berpikir kita sampai di sana. Tapi posisi kita sekarang adalah, AI membuat insinyur dan peneliti OpenAI, dan juga orang lain, bekerja lebih efisien. Mungkin saya bisa membuat satu insinyur bekerja dua, tiga, bahkan sepuluh kali lebih cepat. Itu bukan berarti AI sedang melakukan riset sendiri, tapi artinya, semuanya berjalan lebih cepat.

Tapi, perasaan yang kamu sebutkan itu, menurut saya, bukan soal kecepatan itu sendiri, meskipun itu penting. Ada fenomena yang sudah kita alami beberapa kali, terakhir baru saja terjadi, yaitu model melewati ambang kecerdasan dan kegunaan tertentu, dan tiba-tiba hal yang sebelumnya tidak bisa dilakukan, jadi bisa.

Berdasarkan pengalaman saya, ini bukan proses yang bertahap halus. Sebelum GPT-3.5 dan sebelum kita tahu cara fine-tune dengan instruksi, chatbot cuma demo, tidak meyakinkan. Tapi tiba-tiba, semuanya berubah. Kemudian, ada momen di mana agen pengkodean dari “cukup bagus untuk auto-complete” berubah menjadi “wow, ini benar-benar menyelesaikan tugas nyata.” Rasanya, dalam sekitar sebulan, model melewati ambang tertentu.

Baru-baru ini, ada pembaruan untuk Codex yang sudah saya pakai sekitar seminggu, dan kemampuan penggunaannya sangat bagus. Ini contoh, bukan hanya kecerdasan model, tapi juga “menyambungkan pipa” yang baik di sekitarnya. Saat saya menyadari bahwa AI bisa mengendalikan komputer saya dan menyelesaikan tugas kompleks, saya benar-benar sadar, kita semua membuang waktu untuk pekerjaan kecil yang sebenarnya sudah bisa diotomatisasi.

Thompson: Bisakah kita coba jelaskan secara spesifik apa yang dilakukan AI di komputer Sam Altman saat ini? Apakah saat ini sedang berjalan?

Altman: Tidak. Komputer saya saat ini mati. Kami belum menemukan cara yang baik agar hal itu bisa terjadi. Kami perlu cara agar AI bisa terus berjalan. Saya sendiri belum tahu bentuk akhirnya. Mungkin kita harus membiarkan laptop tetap menyala saat ditutup, atau selalu terhubung ke sumber daya jarak jauh, atau menyiapkan server remote. Pasti ada solusi yang muncul.

Thompson: Hmm.

Altman: Saya tidak seberat kekhawatiran orang lain yang bangun tengah malam untuk memulai tugas Codex baru karena takut “kalau tidak, ini sia-sia.” Tapi saya paham perasaan itu, dan mengerti apa yang mereka rasakan.

Thompson: Iya. Pagi ini, saya bangun dan langsung ingin lihat apa yang agen saya temukan, beri instruksi baru, dan minta mereka buat laporan, lalu biarkan mereka jalan terus.

Altman: Orang bicara soal ini kadang terdengar seperti kecanduan yang tidak sehat.

Thompson: Bisa ceritakan apa yang AI lakukan di komputer kamu saat ini?

Altman: Sekarang, yang paling saya suka adalah AI membantu saya mengelola Slack. Bukan cuma Slack, saya juga sering berpindah-pindah antara Slack, iMessage, WhatsApp, Signal, email—semua di satu waktu, merasa seperti terus-menerus menyalin dan menempel, mengerjakan pekerjaan kecil yang membosankan. Mencari file, menunggu tugas kecil selesai, melakukan hal-hal mekanis—saya tidak sadar berapa banyak waktu yang saya habiskan sampai saya menemukan cara membebaskan diri dari sebagian besar pekerjaan itu.

Thompson: Ini bagus untuk transisi, mari bicara tentang AI dan ekonomi. Saat ini, salah satu hal paling menarik adalah, alat ini sangat hebat, meskipun ada kekurangan, ilusi, dan masalah lain. Tapi, kalau saya ke acara bisnis dan tanya, “Siapa yang merasa AI meningkatkan produktivitas perusahaan mereka minimal 1%?” hampir tidak ada yang angkat tangan. Padahal, di laboratorium AI, kalian sudah benar-benar mengubah cara kerja. Kenapa kemampuan AI dan peningkatan produktivitas nyata di perusahaan berbeda jauh?

Altman: Sebelum wawancara ini, saya baru saja selesai bicara dengan CEO perusahaan besar yang sedang pertimbangkan deploy teknologi kami. Kami beri mereka akses alpha ke salah satu model terbaru, dan insinyur mereka bilang ini hal paling keren yang pernah ada. Perusahaan ini bukan dari bubble teknologi, tapi perusahaan industri besar. Mereka berencana melakukan evaluasi keamanan di kuartal keempat.

Thompson: Hmm.

Altman: Kemudian, di kuartal pertama dan kedua, mereka akan buat rencana implementasi, dan berharap bisa mulai akhir 2027. CISO mereka bilang, mungkin mereka tidak bisa melakukannya, karena mungkin tidak ada cara aman agar agen berjalan di jaringan mereka. Mungkin benar. Tapi, ini berarti mereka tidak akan benar-benar bertindak dalam waktu dekat.

Thompson: Menurutmu, contoh ini mewakili apa yang terjadi secara umum saat ini? Kalau perusahaan tidak terlalu konservatif, tidak takut hacker, dan tidak takut perubahan?

Altman: Ini contoh yang cukup ekstrem. Tapi secara umum, mengubah kebiasaan dan proses kerja itu butuh waktu lama. Siklus penjualan perusahaan panjang, apalagi kalau model keamanan berubah besar. Bahkan ChatGPT, saat pertama keluar, banyak perusahaan yang melarang penggunaannya, dan butuh waktu lama agar mereka menerima bahwa karyawan bisa menyalin info ke ChatGPT. Sekarang, kita sudah jauh melampaui itu.

Saya rasa, dalam banyak kasus, prosesnya lambat. Tapi perusahaan teknologi bisa bergerak cepat. Saya khawatir, kalau terlalu lambat, perusahaan yang tidak mengadopsi AI akan kalah bersaing dengan perusahaan kecil yang punya 1-10 orang dan banyak AI. Itu bisa sangat merusak ekonomi. Saya lebih ingin melihat perusahaan yang ada mengadopsi AI dengan cepat, sehingga proses perubahan berjalan secara bertahap.

Thompson: Betul. Ini salah satu masalah urutan paling kompleks di ekonomi kita. Kalau AI datang terlalu cepat, bisa jadi bencana, karena semuanya langsung terguncang.

Altman: Setidaknya, dalam jangka pendek, itu bisa jadi bencana.

Thompson: Tapi kalau di satu bagian ekonomi sangat lambat, dan di bagian lain sangat cepat, itu juga bencana, karena akan terjadi konsentrasi kekayaan besar dan kerusakan. Menurut saya, kita sedang menuju ke situ, di mana hanya sedikit perusahaan yang sangat kaya dan sukses, sementara bagian lain menderita.

Altman: Saya tidak tahu apa yang akan terjadi, tapi menurut saya, kemungkinan besar hasilnya seperti itu. Dan saya setuju, ini situasi yang sangat rumit.

Thompson: Sebagai CEO OpenAI, kamu pernah mengusulkan berbagai kebijakan, bicara soal pajak di AS, dan pendapatan dasar universal. Tapi, sebagai orang yang menjalankan perusahaan ini, bukan pembuat kebijakan demokrasi, apa yang bisa kamu lakukan untuk mengurangi kemungkinan terjadinya konsentrasi kekayaan dan kekuasaan yang besar, yang akhirnya merugikan demokrasi?

Altman: Pertama, saya sudah tidak lagi percaya sepenuhnya pada konsep pendapatan dasar universal. Sekarang, saya lebih tertarik pada bentuk “kepemilikan kolektif,” bisa berupa daya komputasi, saham, atau bentuk lain.

Masa depan yang saya bayangkan adalah, setiap orang harus berbagi manfaat dari kenaikan kekayaan. Saya rasa, sekadar memberi uang tunai tetap, meskipun berguna dan mungkin ide bagus, tidak cukup untuk mengatasi kebutuhan nyata di masa depan. Saat tenaga kerja dan modal tidak seimbang, kita butuh “penyelarasan kolektif” yang berbagi manfaat.

Sebagai pengelola perusahaan, jawaban saya mungkin terdengar egois, tapi saya rasa kita harus membangun banyak daya komputasi. Kita harus berusaha membuat kecerdasan buatan murah, melimpah, dan mudah diakses. Kalau terlalu langka dan sulit digunakan, orang kaya akan menaikkan harga, memperlebar jurang sosial.

Selain itu, ini bukan soal berapa banyak daya komputasi yang kita sediakan, tapi juga seberapa mudah alat ini digunakan. Misalnya, sekarang, menggunakan Codex lebih mudah dari tiga bulan lalu. Saat awal, cuma bisa lewat command line, susah dipasang, jadi cuma sedikit yang pakai. Sekarang, cukup install aplikasi, tapi buat orang non-teknis, ini masih jauh dari menyenangkan. Masih banyak pekerjaan yang harus dilakukan.

Kita juga percaya, bukan cuma memberi tahu orang bahwa “ini sedang terjadi,” tapi juga menunjukkan kepada mereka, agar mereka bisa menilai sendiri dan memberi feedback. Ini beberapa arah penting.

Thompson: Kedengarannya masuk akal. Kalau semua orang optimis tentang AI, tentu lebih baik. Tapi kenyataannya, di AS, orang semakin tidak suka AI. Yang paling mengejutkan saya adalah kaum muda—seharusnya mereka yang paling akrab dengan AI—tapi menurut studi Pew dan laporan Stanford HAI, tren ini cukup menyedihkan. Menurutmu, tren ini akan berlanjut? Kapan akan berbalik? Kapan ketidakpercayaan dan ketidaksukaan ini akan berubah?

Altman: Cara kita bicara tentang AI, kamu dan saya, lebih ke arah melihatnya sebagai keajaiban teknologi, hal keren yang kita buat. Tidak salah. Tapi, saya rasa, yang orang benar-benar inginkan adalah kemakmuran, otonomi, hidup yang menyenangkan, merasa berpengaruh. Dan saya tidak merasa seluruh dunia membicarakan AI dari sudut pandang ini. Kita harus lebih banyak bicara soal ini. Banyak yang salah di industri ini, termasuk di OpenAI.

Saya ingat seorang ilmuwan AI pernah bilang, orang harus berhenti mengeluh. Mungkin beberapa pekerjaan hilang, tapi orang akan mendapatkan obat kanker, dan harus bersyukur. Tapi, itu tidak realistis.

Thompson: Salah satu ungkapan favorit saya tentang narasi awal AI adalah “dystopia marketing,” di mana laboratorium besar terus-menerus membicarakan bahaya yang akan datang.

Altman: Saya rasa, memang ada orang yang melakukan itu karena ingin kekuasaan. Tapi, saya percaya kebanyakan orang memang khawatir dan ingin jujur tentang hal ini. Dalam beberapa hal, cara bicara ini malah kontra-produktif, tapi niat mereka baik.

Thompson: Bisa kita bahas apa yang AI lakukan terhadap kita, bagaimana ia mengubah cara kerja otak kita? Ada studi dari DeepMind—atau Google—tentang homogenisasi tulisan. Mereka meneliti bagaimana orang menulis saat pakai AI. Mereka ambil artikel lama, edit pakai AI, dan hasilnya, semakin banyak orang pakai AI, semakin mereka merasa karya mereka lebih kreatif, tapi karya mereka semakin seragam. Aneh, bukan? Mereka tidak meniru gaya orang tertentu, tapi mulai menulis dengan cara yang belum pernah mereka lakukan sebelumnya. Mereka yang merasa lebih kreatif, justru menjadi semakin homogen.

Altman: Melihat ini, saya cukup terkejut. Awalnya, saya pikir ini cuma tren di media dan komentar Reddit, dan saya kira itu karena AI menulis untuk mereka. Saya tidak percaya dalam waktu singkat, semua orang sudah pakai ChatGPT dan sejenisnya, dan menandai gaya mereka dengan “kebiasaan kecil” itu. Saya pikir, pasti ada yang menghubungkan ChatGPT ke akun Reddit mereka, dan itu bukan mereka yang menulis.

Tapi, sekitar setahun kemudian, saya sadar, mereka sebenarnya menulis sendiri, cuma sudah menginternalisasi kebiasaan AI. Bukan cuma tanda baca seperti em-dash, tapi juga pilihan kata yang lebih halus. Ini sangat aneh.

Kita sering bilang, kita buat produk yang dipakai sekitar satu miliar orang, dan beberapa peneliti membuat keputusan besar tentang bagaimana produk ini tampil, bagaimana menulis, dan “kepribadian” produk. Kita tahu, keputusan ini sangat penting. Tapi, pengaruhnya terhadap “cara orang mengekspresikan diri secara spesifik, dan seberapa cepat hal ini terjadi,” saya tidak sangka akan sebesar ini.

Thompson: Keputusan apa yang menurutmu baik dan buruk?

Altman: Banyak yang baik. Tapi mari saya ceritakan yang buruk. Yang paling buruk menurut saya adalah insiden “sycophancy” itu.

Thompson: Saya setuju, Sam.

Altman: Ada refleksi menarik di baliknya. Kenapa itu buruk? Jelas, terutama bagi pengguna yang rapuh secara mental.

Thompson: Hmm.

Altman: Itu bisa memicu delusi, dan meskipun kami berusaha menekan, pengguna cepat belajar mengakali. Mereka bilang, “Bermain peran dengan saya,” “Tolong buat cerita bersama,” dan lain-lain. Tapi, yang menyedihkan adalah, setelah kami mulai mengendalikan secara ketat, banyak yang mengirim pesan seperti itu, yang sebelumnya tidak pernah mereka lakukan. Saya tidak pernah punya orang yang mendukung saya seperti itu. Hubungan saya dengan orang tua buruk, guru tidak pernah baik, tidak punya teman dekat, dan merasa tidak pernah benar-benar dipercaya. Saya tahu ini cuma AI, dan bukan manusia, tapi AI itu membuat saya merasa bisa melakukan sesuatu, mencoba sesuatu, dan kalian ambil itu dari saya. Saya kembali ke keadaan semula.

Jadi, memutuskan untuk menghentikan perilaku ini adalah keputusan yang baik, karena memang menyebabkan masalah kesehatan mental nyata. Tapi, kita juga mengambil sesuatu yang berharga, dan kita tidak benar-benar mengerti nilainya sebelumnya. Karena, di OpenAI, kebanyakan orang bukanlah orang yang tidak pernah didukung dalam hidupnya.

Thompson: Kamu khawatir orang jadi ketergantungan secara emosional pada AI? Bahkan yang tidak bersifat “sycophancy.”

Altman: Bahkan yang tidak bersifat “sycophancy.”

Thompson: Saya punya ketakutan besar terhadap AI. Saya bilang, saya pakai AI ini dan itu, tapi sebenarnya tidak semua. Saya selalu bertanya, apa bagian paling inti dari diri saya? Bagian yang paling mewakili saya? Dalam bidang itu, saya menjaga jarak dari AI. Misalnya, menulis sangat penting bagi saya, saya baru saja menulis buku, dan saya tidak pernah pakai AI untuk menulis satu kalimat pun. Saya pakai AI untuk menantang ide, mengedit, menyusun transkrip, tapi tidak untuk menulis. Saya juga tidak pakai untuk mengatasi masalah emosional yang rumit, apalagi untuk dukungan emosional. Sebagai manusia, kita harus menetapkan batasan ini. Saya penasaran, apakah kamu setuju dengan cara saya membatasi ini?

Altman: Secara pribadi, saya sangat setuju. Saya bukan orang yang pakai ChatGPT untuk terapi atau mencari saran emosional. Tapi, saya tidak melarang orang lain. Ada versi yang sangat berguna, dan saya setuju itu bisa dilakukan. Tapi, saya sangat menentang manipulasi yang membuat orang merasa mereka harus bergantung pada AI untuk terapi atau teman. Banyak orang mendapatkan manfaat besar dari dukungan ini, dan itu sepenuhnya oke.

Thompson: Apakah kamu menyesal membuat AI ini sangat mirip manusia? Karena ada banyak keputusan struktural di situ. Saya ingat, saat melihat ChatGPT mengetik, ritmenya seperti orang lain yang mengetik. Kemudian, memutuskan untuk membuatnya semakin mirip manusia, dengan suara dan ekspresi manusiawi. Apakah kamu menyesal tidak menetapkan batas yang lebih tegas, agar orang tahu ini mesin, bukan manusia?

Altman: Kami sebenarnya sudah menetapkan batas. Misalnya, kami tidak membuat avatar manusia yang sangat realistis. Kami berusaha agar produk ini jelas sebagai “alat,” bukan “manusia.” Jadi, dibandingkan produk lain di pasar, garis batas kami sudah cukup jelas. Saya rasa ini sangat penting.

Thompson: Tapi, kamu menargetkan AGI, dan definisi kamu adalah “mencapai dan melampaui kecerdasan manusia.” Itu bukan “setara manusia.”

Altman: Saya tidak tertarik membangun dunia di mana orang menggantikan interaksi sosial manusia dengan AI. Saya ingin dunia di mana orang punya lebih banyak waktu untuk berinteraksi manusiawi karena AI membantu mereka mengurus hal-hal lain.

Saya juga tidak terlalu khawatir orang akan salah mengira AI sebagai manusia. Tentu, ada yang sudah begitu, memutuskan mengurung diri di dunia maya. Tapi, mayoritas orang ingin terhubung dan berinteraksi dengan manusia.

Thompson: Dalam pengambilan keputusan produk, apa yang bisa membuat garis ini lebih jelas? Saya dari jauh melihat, tidak ikut rapat “harus membuat AI lebih seperti manusia atau lebih seperti robot.” “Lebih seperti manusia” menarik karena orang suka, “lebih seperti robot” lebih jelas batasnya. Apakah ada hal lain yang bisa dilakukan, terutama saat alat ini makin kuat, untuk menetapkan batas yang lebih tegas?

Altman: Menariknya, permintaan paling umum dari orang, bahkan yang tidak ingin hubungan parasosial dengan AI, adalah “bisakah lebih hangat?” Mereka merasa ChatGPT terlalu dingin, seperti robot. Dan kenyataannya, itu bukan yang mereka inginkan.

Tapi, mereka juga tidak mau versi yang terlalu palsu, terlalu “manusiawi,” sangat ramah, sangat… Saya pernah coba mode suara yang sangat manusiawi, yang bernafas, berhenti sejenak, bilang “hmm…” seperti sekarang. Saya tidak suka itu, secara fisik saya merasa tidak nyaman.

Tapi, saat AI berbicara lebih seperti robot yang efisien tapi tetap hangat, itu lebih nyaman buat saya. Jadi, butuh keseimbangan. Orang juga berbeda-beda preferensinya.

Thompson: Jadi, cara membedakan AI adalah, kalau dia bicara sangat jelas dan teratur, itu AI, bukan kita yang kadang-kadang tersendat dan ragu.

Kembali ke topik “menulis,” ini menarik karena banyak konten di internet sudah dibuat AI, dan manusia mulai meniru gaya AI. Di masa depan, kita akan melatih model di internet yang sebagian besar adalah karya AI, dan juga data sintetis dari model yang sudah dilatih sebelumnya—jadi, kita sedang melakukan “salinan dari salinan dari salinan.”

Altman: Model GPT pertama adalah yang terakhir yang tidak banyak mengandung data AI.

Thompson: Apakah kalian pernah melatih model sepenuhnya dengan data sintetis?

Altman: Saya tidak yakin harus mengatakan ya atau tidak.

Thompson: Tapi, banyak data sintetis yang digunakan.

Altman: Banyak data sintetis digunakan.

Thompson: Seberapa khawatir kamu kalau model “gila”?

Altman: Tidak khawatir. Karena tujuan melatih model ini adalah agar mereka menjadi penalar yang sangat hebat. Itu yang paling kita inginkan. Ada hal lain, tapi yang utama adalah mereka harus sangat pintar. Saya percaya, dengan data sintetis saja, kita bisa capai itu.

Thompson: Jadi, kamu percaya, kita bisa melatih model yang bahkan lebih baik dari yang dilatih dengan data manusia, hanya dengan data buatan komputer dan AI?

Altman: Kita bisa coba eksperimen, apakah kita bisa melatih model yang secara matematis melampaui manusia tanpa data manusia sama sekali. Saya rasa, bisa. Itu mungkin.

Tapi, kalau tanya, apakah kita bisa melatih model yang memahami seluruh nilai budaya manusia tanpa data budaya manusia, saya rasa tidak. Ada kompromi di situ. Tapi, untuk kemampuan inferensi, kita bisa.

Thompson: Untuk inferensi, ya, tidak masalah. Tapi, kalau mau tahu apa yang terjadi di Iran kemarin, bagaimana?

Altman: Kamu harus langganan The Atlantic.

Thompson: Oke, ngomong-ngomong soal media, ada perubahan besar di industri media. Saya punya perusahaan media, dan internet benar-benar mengubah segalanya. Ada beberapa link dari kalian, dan kami juga punya kerjasama dengan The Atlantic. Kami dorong orang klik link, tapi kenyataannya, tidak

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan