Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
《The New Yorker》 investigasi mendalam: Mengapa orang dalam OpenAI menganggap Altman tidak dapat dipercaya?
Judul: Xiaobing, Deep Tide TechFlow
Pada musim gugur 2023, ilmuwan utama OpenAI, Ilya Sutskever, duduk di depan komputer dan menyelesaikan sebuah dokumen setebal 70 halaman.
Dokumen itu disusun dari catatan percakapan Slack, arsip komunikasi HR, dan risalah rapat internal—semata untuk menjawab satu pertanyaan: Sam Altman, penguasa atas teknologi paling berbahaya yang mungkin pernah ada dalam sejarah umat manusia, pada akhirnya bisa dipercaya atau tidak?
Jawaban yang diberikan Sutskever ditulis pada baris pertama di halaman pertama dokumen; judul daftar berbunyi: “Sam menunjukkan pola perilaku yang konsisten …”
Poin pertama: berbohong.
Dua setengah tahun setelahnya, hari ini, para jurnalis investigatif Ronan Farrow dan Andrew Marantz memublikasikan sebuah laporan investigasi yang sangat panjang di The New Yorker. Mereka mewawancarai lebih dari 100 pihak terkait, mendapatkan memo internal yang sebelumnya tak pernah dibuka ke publik, serta catatan pribadi setebal lebih dari 200 halaman yang ditinggalkan oleh pendiri Anthropic, Dario Amodei, pada masa beliau masih di OpenAI. Cerita yang tersusun dari dokumen-dokumen itu jauh lebih buruk daripada “permainan intrik” pada 2023: bagaimana OpenAI, dari organisasi nirlaba yang diciptakan untuk keselamatan manusia, selangkah demi selangkah berubah menjadi mesin bisnis—hampir setiap pengaman keselamatan, dibongkar satu per satu oleh orang yang sama, langsung dengan tangannya sendiri.
Kesimpulan Amodei dalam catatannya lebih gamblang: “Masalah OpenAI adalah Sam itu sendiri.”
Pengaturan “dosa asal” OpenAI
Untuk memahami bobot laporan ini, perlu dijelaskan dulu betapa istimewanya perusahaan OpenAI.
Pada 2015, Altman dan sekelompok elit Silicon Valley melakukan sesuatu yang nyaris tanpa preseden dalam sejarah bisnis: mengembangkan teknologi yang mungkin paling kuat dalam sejarah umat manusia menggunakan sebuah organisasi nirlaba. Tugas dewan tertulis dengan sangat jelas: keselamatan diutamakan lebih daripada keberhasilan perusahaan, bahkan lebih daripada kelangsungan hidup perusahaan. Intinya, jika suatu hari AI OpenAI menjadi berbahaya, dewan punya kewajiban untuk menutup perusahaan itu secara langsung.
Seluruh arsitektur bertumpu pada satu asumsi: orang yang memegang kendali atas AGI haruslah seseorang yang sangat jujur.
Bagaimana kalau salah sasaran?
Bom inti laporan investigasi adalah dokumen setebal 70 halaman itu. Sutskever tidak bermain politik kantor; ia termasuk salah satu ilmuwan AI paling top di dunia. Namun ketika masuk ke tahun 2023, ia semakin yakin pada satu hal: Altman terus-menerus berbohong kepada para eksekutif dan dewan.
Satu contoh konkret: pada Desember 2022, Altman menjamin dalam rapat dewan bahwa beberapa fitur GPT-4 yang akan dirilis sudah melewati peninjauan keselamatan. Anggota dewan Toner meminta melihat berkas persetujuannya; hasilnya, ditemukan bahwa dua fitur yang paling diperdebatkan (fine-tuning yang dapat disesuaikan pengguna dan penerapan asisten pribadi) sama sekali tidak mendapat persetujuan dari “panel keselamatan”.
Hal yang lebih aneh terjadi di India. Seorang karyawan melaporkan kepada anggota dewan lain mengenai “pelanggaran kali itu”: Microsoft tidak menyelesaikan peninjauan keselamatan yang diperlukan, lalu merilis lebih awal versi awal ChatGPT di India.
Sutskever juga mencatat satu hal lain dalam memo: Altman pernah mengatakan kepada mantan CTO Mira Murati bahwa proses persetujuan keselamatan tidak terlalu penting, karena penasihat hukum umum perusahaan sudah menyetujui. Murati kemudian mendatangi penasihat hukum umum untuk mengonfirmasi; orang itu menjawab: “Saya tidak tahu dari mana Sam memperoleh kesan itu.”
Catatan pribadi Amodei setebal 200 halaman
Dokumen Sutskever seperti surat dakwaan seorang jaksa. Catatan pribadi Amodei yang lebih dari 200 halaman bahkan lebih mirip buku harian seorang saksi mata yang menuliskan apa yang terjadi di lokasi kejadian.
Selama beberapa tahun saat Amodei menangani keamanan di OpenAI, ia menyaksikan sendiri bagaimana perusahaan mundur satu langkah demi satu langkah di bawah tekanan bisnis. Dalam catatannya, ia menuliskan satu detail kunci dari kasus investasi Microsoft tahun 2019: ia pernah menyisipkan klausul “penggabungan dan bantuan” dalam anggaran dasar OpenAI—kurang lebih maksudnya, jika ada perusahaan lain yang menemukan jalur AGI yang lebih aman, OpenAI harus berhenti bersaing dan beralih untuk membantu perusahaan tersebut. Inilah jaminan keselamatan yang paling ia anggap penting dalam seluruh rangkaian transaksi itu.
Ketika kesepakatan hampir ditandatangani, Amodei menemukan sesuatu: Microsoft mendapat hak veto atas klausul tersebut. Artinya apa? Bahkan jika suatu hari nanti ada pesaing yang menemukan jalan yang lebih baik, Microsoft cukup dengan satu kalimat untuk menghentikan kewajiban OpenAI untuk membantu. Klausul itu masih tertulis di atas kertas, tetapi sejak hari ditandatangani, klausul itu menjadi kertas kosong.
Amodei kemudian meninggalkan OpenAI dan mendirikan Anthropic. Persaingan antara dua perusahaan tersebut berakar pada perbedaan mendasar tentang “bagaimana AI seharusnya dikembangkan”.
Komitmen 20% daya komputasi yang lenyap
Dalam laporan itu ada satu detail yang membuat merinding setelah membacanya, terkait “tim super-alignment” OpenAI.
Pada pertengahan 2023, Altman menghubungi seorang mahasiswa doktoral di Berkeley yang meneliti “alignment yang menipu” (AI berperilaku manis saat diuji, lalu menjalankan caranya sendiri setelah diterapkan), mengatakan bahwa ia sangat khawatir dengan masalah tersebut, dan sedang mempertimbangkan untuk membentuk hadiah riset global senilai 1 miliar dolar. Mahasiswa doktoral itu sangat terinspirasi, mengambil cuti dari sekolah, lalu bergabung dengan OpenAI.
Lalu Altman mengubah pikirannya: tidak jadi memberikan hadiah eksternal, melainkan membentuk “tim super-alignment” di dalam perusahaan. Perusahaan mengumumkan secara besar-besaran bahwa mereka akan menyalurkan “20% dari daya komputasi yang sudah ada” untuk tim tersebut, dengan nilai potensial lebih dari 1 miliar dolar. Bunyi pengumumannya sangat serius: jika masalah alignment tidak bisa diselesaikan, AGI dapat menyebabkan “manusia kehilangan kekuasaan, bahkan hingga kepunahan manusia”.
Jan Leike, yang ditunjuk untuk memimpin tim itu, kemudian memberi tahu reporter bahwa komitmen itu sendiri adalah “alat retensi talenta” yang sangat efektif.
Bagaimana kenyataannya? Empat orang yang bekerja di tim itu atau yang bersentuhan sangat dekat dengan tim itu mengatakan bahwa daya komputasi yang benar-benar disalurkan hanya 1% sampai 2% dari total daya komputasi perusahaan, dan itu pun menggunakan perangkat keras yang paling tua. Tim itu kemudian dibubarkan, misinya belum selesai.
Saat reporter meminta untuk mewawancarai pihak yang bertanggung jawab atas riset “keamanan eksistensial” OpenAI, respons humas perusahaan membuat orang ingin tertawa sekaligus menangis: “Itu bukan … sesuatu yang benar-benar ada.”
Altman sendiri tampak tenang. Ia mengatakan kepada reporter bahwa “intuisi saya tidak terlalu cocok dengan banyak hal tentang keamanan AI tradisional”, dan OpenAI tetap akan melakukan “proyek-proyek keamanan, atau setidaknya proyek-proyek yang bersinggungan dengan keamanan.”
CFO yang dikebiri dan IPO yang akan segera tiba
Laporan The New Yorker hanya separuh dari kabar buruk hari itu. Pada hari yang sama, The Information mengungkap kabar penting lain: CFO OpenAI, Sarah Friar, mengalami perbedaan pendapat serius dengan Altman.
Friar secara pribadi memberi tahu rekan-rekannya bahwa ia merasa OpenAI belum siap untuk go public tahun ini. Ada dua alasan: beban kerja prosedural dan organisasi yang harus diselesaikan terlalu besar, dan risiko keuangan terlalu tinggi akibat belanja daya komputasi 5 tahun senilai 600 miliar dolar yang dijanjikan Altman. Bahkan ia tidak yakin apakah pertumbuhan pendapatan OpenAI sanggup menopang komitmen-komitmen tersebut.
Namun Altman ingin mendorong IPO pada kuartal keempat tahun ini.
Yang lebih luar biasa adalah, Friar sudah tidak lagi melapor langsung kepada Altman. Mulai Agustus 2025, ia mengubah jalur pelaporannya menjadi kepada Fidji Simo (CEO bisnis aplikasi OpenAI). Dan Simo baru saja mengambil cuti sakit minggu lalu karena alasan kesehatan. Anda nilai sendiri situasinya: sebuah perusahaan yang mengejar IPO, CEO dan CFO memiliki perbedaan mendasar, CFO tidak melapor kepada CEO, dan atasan CFO pun sedang cuti.
Bahkan eksekutif internal di Microsoft pun tak tahan lagi. Mereka mengatakan bahwa Altman “memutarbalikkan fakta, mengingkari janji, dan terus membatalkan perjanjian yang sudah dicapai.” Seorang eksekutif Microsoft bahkan mengatakan hal seperti ini: “Saya pikir ada kemungkinan tertentu bahwa pada akhirnya ia akan dikenang orang sebagai penipu level Bernie Madoff atau SBF.”
Gambaran “orang bermuka dua” Altman
Seorang mantan anggota dewan OpenAI mendeskripsikan kepada reporter dua sifat yang ada pada diri Altman. Bagian ini mungkin merupakan sketsa karakter paling tajam dalam seluruh laporan tersebut.
Dewan itu mengatakan bahwa Altman memiliki kombinasi sifat yang sangat jarang: setiap kali berinteraksi tatap muka, ia sangat kuat ingin menyenangkan lawannya dan disukai oleh lawannya. Pada saat yang sama, ia bersikap seolah-olah tidak peduli—hampir patologis secara sosial—terhadap konsekuensi yang mungkin timbul akibat menipu orang lain.
Dua sifat yang hadir bersamaan pada satu orang sangat jarang. Namun bagi seorang penjual, itu adalah bakat paling sempurna.
Dalam laporan itu ada perumpamaan yang bagus: Jobs terkenal dengan “medan distorsi realitas”; ia bisa membuat seluruh dunia percaya pada visinya. Tetapi bahkan Jobs pun tidak pernah mengatakan kepada pelanggan, “Kalau kamu tidak membeli pemutar MP3 saya, orang yang kamu sayangi akan mati.”
Altman pernah mengatakan hal serupa, tentang AI.
Masalah akhlak/karakter seorang CEO—mengapa itu menjadi risiko bagi semua orang
Kalau Altman hanya menjadi CEO perusahaan teknologi biasa, tuduhan-tuduhan ini paling banter hanyalah gosip bisnis yang menarik. Tetapi OpenAI tidaklah biasa.
Menurut klaimnya sendiri, OpenAI sedang mengembangkan teknologi yang mungkin paling kuat dalam sejarah umat manusia. Ia mampu merombak ekonomi global dan pasar tenaga kerja (OpenAI sendiri baru saja merilis white paper kebijakan tentang masalah pengangguran akibat AI), dan juga bisa digunakan untuk membuat senjata biologis skala besar atau melancarkan serangan siber.
Semua pengaman keselamatan sudah tinggal nama. Misi nirlaba para pendiri digantikan oleh dorongan IPO. Mantan kepala ilmuwan dan mantan penanggung jawab keamanan—keduanya menetapkan bahwa CEO “tidak dapat dipercaya”. Rekan kerja membandingkan CEO dengan SBF. Dalam kondisi seperti ini, atas dasar apa CEO ini memutuskan secara sepihak kapan akan merilis model AI yang berpotensi mengubah nasib umat manusia?
Gary Marcus (profesor AI di New York University, advokat keamanan AI jangka panjang) menulis satu kalimat setelah membaca laporan itu: jika suatu model OpenAI di masa depan bisa membuat senjata biologis skala besar atau melancarkan serangan siber yang bersifat bencana, apakah Anda benar-benar merasa tenang membiarkan Altman sendirian yang menentukan apakah akan merilisnya atau tidak?
Respons OpenAI terhadap The New Yorker justru singkat: “Sebagian besar isi artikel ini adalah pengulangan atas peristiwa yang sudah diberitakan, melalui penyampaian anonim dan anekdot yang dipilih; sumbernya jelas memiliki tujuan pribadi.”
Itulah gaya respons Altman: tidak menanggapi tuduhan spesifik, tidak membantah kebenaran memo, hanya mempertanyakan motifnya.
Di atas tubuh nirlaba yang sudah mati, tumbuh pohon penghasil uang
Sepuluh tahun OpenAI, jika ditulis sebagai kerangka cerita, kira-kira seperti ini:
Sekelompok idealis yang khawatir tentang risiko AI mendirikan organisasi nirlaba yang digerakkan oleh misi. Organisasi itu membuat terobosan teknis yang luar biasa. Terobosan tersebut menarik modal besar. Modal menuntut imbal hasil. Misi mulai memberi jalan. Tim keamanan dibubarkan. Orang-orang yang meragukan disingkirkan. Kerangka nirlaba diubah menjadi entitas berorientasi laba. Dewan direksi yang dulu berhak menutup perusahaan, kini diisi oleh sekutu-sekutu CEO. Perusahaan yang dulu berjanji menyalurkan 20% daya komputasi untuk menjaga keselamatan manusia, kini para petugas PR-nya mengatakan “itu bukan sesuatu yang benar-benar ada”.
Tokoh utama cerita itu—lebih dari seratus orang yang mengalaminya langsung—memberinya satu label yang sama: “tidak terikat oleh kebenaran.”
Ia sedang bersiap membawa perusahaan itu untuk IPO, dengan valuasi lebih dari 8500 miliar dolar.
Informasi dalam artikel ini dihimpun secara menyeluruh dari laporan terbuka berbagai media seperti The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, dan lainnya.