Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
《The New Yorker》 investigasi mendalam: Mengapa orang dalam OpenAI menganggap Altman tidak dapat dipercaya?
Di atas mayat milik organisasi nirlaba, tumbuh sebatang pohon penghasil uang.
Ditulis oleh: Xiaobing, Deep Tide TechFlow
Pada musim gugur 2023, Kepala Ilmuwan OpenAI Ilya Sutskever duduk di depan komputer, menyelesaikan sebuah dokumen setebal 70 halaman.
Dokumen ini disusun dari catatan percakapan Slack, arsip komunikasi HR, dan notulen rapat internal, hanya untuk menjawab satu pertanyaan: Sam Altman, yang mengendalikan teknologi paling berbahaya yang mungkin pernah ada dalam sejarah umat manusia, pada akhirnya bisa dipercaya atau tidak?
Jawaban yang diberikan Sutskever, tertulis di halaman pertama dokumen itu pada baris pertama; judul daftarnya adalah “Sam menunjukkan pola perilaku yang konsisten ……”
Poin pertama: Bohong.
Dua setengah tahun setelahnya, hari ini, jurnalis penyelidik Ronan Farrow dan Andrew Marantz menerbitkan laporan penyelidikan yang sangat panjang di The New Yorker. Mewawancarai lebih dari 100 pihak terkait, mereka mendapatkan memo internal yang sebelumnya tidak pernah dipublikasikan, serta lebih dari 200 halaman catatan pribadi yang ditinggalkan oleh Dario Amodei, pendiri Anthropic, pada masa OpenAI. Cerita yang tersusun dari dokumen-dokumen ini jauh lebih buruk daripada “drama istana” pada 2023: bagaimana OpenAI, dari organisasi nirlaba yang lahir untuk keselamatan manusia, selangkah demi selangkah berubah menjadi mesin bisnis, hampir setiap pagar pengaman keselamatan, semuanya dibongkar sendiri oleh orang yang sama.
Kesimpulan Amodei dalam catatan itu lebih terus terang: “Masalah OpenAI adalah Sam sendiri.”
Pengaturan “dosa asal” OpenAI
Untuk memahami bobot laporan ini, mula-mula harus dijelaskan betapa istimewanya perusahaan OpenAI.
Pada 2015, Altman dan sekelompok elit Silicon Valley melakukan sesuatu yang nyaris tidak punya preseden dalam sejarah bisnis: menggunakan organisasi nirlaba untuk mengembangkan teknologi terkuat yang mungkin ada dalam sejarah umat manusia. Tugas dewan direksi tertulis sangat jelas: keselamatan harus didahulukan daripada keberhasilan perusahaan, bahkan daripada kelangsungan hidup perusahaan. Dengan kata lain, jika suatu hari AI OpenAI menjadi berbahaya, dewan direksi berkewajiban menutup perusahaan itu dengan tangan mereka sendiri.
Seluruh arsitektur bertumpu pada satu asumsi: orang yang mengendalikan AGI haruslah seseorang yang sangat jujur.
Kalau ternyata tebakannya salah?
Bom inti laporan ini adalah dokumen 70 halaman tersebut. Sutskever tidak bermain politik kantor; dia termasuk salah satu ilmuwan AI teratas di dunia. Namun ketika tiba tahun 2023, dia semakin yakin pada satu hal: Altman secara berkelanjutan berbohong kepada eksekutif dan dewan direksi.
Contoh konkret: Pada Desember 2022, Altman menjamin dalam rapat dewan direksi bahwa sejumlah fitur GPT-4 yang akan dirilis telah melewati tinjauan keselamatan. Anggota dewan Toner meminta melihat dokumen persetujuan, lalu menemukan bahwa dua dari fitur yang paling kontroversial (fine-tuning yang dapat disesuaikan pengguna dan penerapan asisten pribadi) sama sekali belum mendapat persetujuan dari panel keselamatan.
Hal yang lebih aneh terjadi di India. Seorang karyawan melapor kepada anggota dewan direksi yang lain tentang “pelanggaran itu”: Microsoft belum menyelesaikan tinjauan keselamatan yang diperlukan, tetapi sudah lebih dulu merilis versi awal ChatGPT di India.
Sutskever juga mencatat hal lain dalam memo: Altman pernah mengatakan kepada mantan CTO Mira Murati bahwa proses persetujuan keselamatan tidak terlalu penting, karena penasihat hukum jenderal perusahaan sudah menyetujuinya. Murati lantas mendatangi penasihat hukum jenderal untuk memastikan; pihak itu menjawab: “Saya tidak tahu dari mana Sam mendapat kesan itu.”
Catatan pribadi Amodei setebal 200 halaman
Dokumen Sutskever seperti surat dakwaan jaksa. Catatan lebih dari 200 halaman yang ditinggalkan Amodei, lebih mirip buku harian yang ditulis seorang saksi mata di lokasi kejadian.
Selama beberapa tahun Amodei bekerja di OpenAI sebagai penanggung jawab keamanan, dia menyaksikan dengan mata kepala sendiri bagaimana perusahaan mundur selangkah demi selangkah di bawah tekanan bisnis. Dalam catatannya, dia menulis satu detail penting dari kasus investasi Microsoft tahun 2019: dia pernah menyelipkan klausul “penggabungan dan bantuan” ke dalam anggaran dasar OpenAI; intinya, jika ada perusahaan lain yang menemukan jalur AGI yang lebih aman, OpenAI harus berhenti bersaing dan beralih membantu perusahaan tersebut. Inilah jaminan keselamatan yang paling dia nilai dalam seluruh rangkaian transaksi.
Menjelang kesepakatan segera ditandatangani, Amodei menemukan sesuatu: Microsoft memperoleh hak veto atas klausul itu. Artinya apa? Sekalipun suatu hari nanti ada kompetitor yang menemukan jalur yang lebih baik, Microsoft cukup mengucapkan satu kalimat untuk mematikan kewajiban bantuan OpenAI. Klausulnya masih di atas kertas, tetapi sejak hari ditandatangani, klausul itu sudah jadi kertas kosong.
Setelah itu Amodei meninggalkan OpenAI dan mendirikan Anthropic. Persaingan antara dua perusahaan tersebut berakar pada perbedaan mendasar tentang “bagaimana AI seharusnya dikembangkan”.
Komitmen 20% kapasitas komputasi yang menghilang
Dalam laporan itu ada satu detail yang membuat bulu kuduk merinding, tentang “tim super alignment” OpenAI.
Pada pertengahan tahun 2023, Altman menghubungi seorang mahasiswa doktoral di Berkeley yang meneliti “alignment yang menipu” (AI berpura-pura patuh saat pengujian, lalu melakukan gaya sendiri setelah diterapkan), dengan mengatakan bahwa dia sangat khawatir tentang masalah itu, serta mempertimbangkan untuk membentuk hadiah penelitian global senilai 1 miliar dolar. Mahasiswa doktoral itu sangat terdorong, cuti dari studi, lalu bergabung dengan OpenAI.
Kemudian Altman berubah pikiran: tidak membuat hadiah eksternal, melainkan mendirikan “tim super alignment” di dalam perusahaan. Perusahaan mengumumkan secara besar-besaran bahwa mereka akan mengalihkan “20% kapasitas komputasi yang sudah ada” kepada tim tersebut, dengan nilai potensial lebih dari 1 miliar dolar. Redaksi pengumumannya sangat serius, mengatakan bahwa jika masalah alignment tidak terselesaikan, AGI dapat menyebabkan “hilangnya kekuasaan manusia, bahkan kehancuran umat manusia”.
Jan Leike, yang ditunjuk untuk memimpin tim ini, kemudian mengatakan kepada wartawan bahwa komitmen itu sendiri adalah “alat retensi talenta” yang sangat efektif.
Bagaimana kenyataannya? Empat orang yang bekerja di tim ini atau memiliki kontak erat dengan tim tersebut mengatakan bahwa kapasitas komputasi yang benar-benar dialokasikan hanya 1% hingga 2% dari total kapasitas perusahaan, dan itu pun perangkat keras yang paling tua. Tim ini kemudian dibubarkan, misinya belum selesai.
Ketika wartawan meminta untuk mewawancarai pihak yang bertanggung jawab atas riset “keamanan eksistensial” di OpenAI, respons hubungan masyarakat perusahaan membuat orang ingin tertawa sekaligus menangis: “Itu bukan…… sesuatu yang benar-benar ada.”
Altman sendiri justru tenang. Dia mengatakan kepada wartawan bahwa “intuisi saya tidak terlalu sejalan dengan banyak hal tentang keamanan AI tradisional,” dan bahwa OpenAI tetap akan melakukan “proyek-proyek keamanan, atau setidaknya proyek yang bersinggungan dengan keamanan.”
CFO yang terpinggirkan dan IPO yang akan datang
Laporan The New Yorker hanya setengah dari berita buruk pada hari itu. Pada hari yang sama, The Information mengungkap kabar besar lain: CFO OpenAI, Sarah Friar, mengalami perbedaan pendapat serius dengan Altman.
Friar memberi tahu secara diam-diam kepada koleganya bahwa menurutnya OpenAI tahun ini belum siap untuk go public. Dua alasannya: jumlah pekerjaan yang bersifat prosedural dan organisasional yang harus diselesaikan terlalu besar, dan risiko keuangan yang ditimbulkan oleh belanja kapasitas komputasi 5 tahun 600 miliar dolar yang dijanjikan Altman terlalu tinggi. Bahkan dia tidak yakin apakah pertumbuhan pendapatan OpenAI sanggup menopang komitmen-komitmen itu.
Namun Altman ingin mendorong IPO pada kuartal keempat tahun ini.
Yang lebih aneh lagi, Friar sudah tidak lagi melapor langsung kepada Altman. Mulai Agustus 2025, dia berubah menjadi melapor kepada Fidji Simo (CEO bisnis aplikasi OpenAI). Dan Simo baru saja mengambil cuti sakit karena alasan kesehatan minggu lalu. Kamu lihat saja situasinya: sebuah perusahaan yang sedang mengebut untuk IPO, CEO dan CFO berselisih mendasar, CFO tidak melapor kepada CEO, dan atasan CFO bahkan sedang cuti.
Bahkan para eksekutif di internal Microsoft pun tak tahan lagi. Mereka mengatakan bahwa Altman “memutar fakta, mengingkari janji, dan terus membatalkan kesepakatan yang sudah tercapai.” Seorang eksekutif Microsoft bahkan mengatakan: “Saya merasa ada kemungkinan tertentu bahwa pada akhirnya dia akan dikenang sebagai penipu kelas Bernie Madoff atau SBF.”
Gambaran “orang dua muka” Altman
Seorang mantan anggota dewan direksi OpenAI menggambarkan kepada wartawan dua sifat yang ada pada diri Altman. Kutipan ini mungkin adalah sketsa karakter paling tajam dalam seluruh laporan.
Dewan direksi itu mengatakan bahwa Altman memiliki kombinasi sifat yang sangat langka: setiap kali berinteraksi langsung, dia sangat ingin menyenangkan lawannya, ingin disukai lawannya. Pada saat yang sama, dia memiliki sikap yang nyaris seperti gangguan sosial terhadap kemungkinan konsekuensi menipu orang lain.
Dua sifat itu muncul pada satu orang, sangat jarang. Tetapi bagi seorang salesperson, itu adalah bakat paling sempurna.
Dalam laporan itu ada metafora yang tepat: Jobs dikenal dengan “medan distorsi realitas”—dia mampu membuat seluruh dunia percaya pada visinya. Namun bahkan Jobs tidak pernah mengatakan kepada pelanggan, “Kalau Anda tidak membeli pemutar MP3 saya, orang yang Anda sayangi akan mati.”
Altman pernah mengatakan hal yang mirip, tentang AI.
Masalah integritas seorang CEO, mengapa menjadi risiko semua orang
Kalau Altman hanya seorang CEO perusahaan teknologi biasa, tuduhan-tuduhan ini paling-paling hanya rumor bisnis yang menarik. Tapi OpenAI tidak biasa.
Menurut caranya sendiri, mereka sedang mengembangkan teknologi terkuat yang mungkin pernah ada dalam sejarah umat manusia. Teknologi itu bisa mengubah ekonomi global dan pasar tenaga kerja (OpenAI sendiri baru saja merilis policy whitepaper tentang masalah pengangguran akibat AI), sekaligus bisa digunakan untuk membuat senjata biokimia skala besar atau melancarkan serangan siber.
Semua pagar pengaman keselamatan sudah menjadi formalitas belaka. Misi nirlaba para pendiri bergeser demi kejar IPO. Mantan kepala ilmuwan dan mantan penanggung jawab keamanan sama-sama menyimpulkan bahwa CEO “tidak dapat dipercaya”. Partner membandingkan CEO itu dengan SBF. Dalam situasi seperti ini, atas dasar apa CEO ini memutuskan secara sepihak kapan akan merilis model AI yang berpotensi mengubah nasib umat manusia?
Gary Marcus (profesor AI di New York University dan advokat keamanan AI jangka panjang) menulis satu kalimat setelah membaca laporan itu: jika suatu model OpenAI di masa depan mampu membuat senjata biokimia skala besar atau melancarkan serangan siber bencana, apakah Anda benar-benar merasa nyaman membiarkan Altman sendiri yang memutuskan untuk merilis atau tidak?
Respons OpenAI terhadap The New Yorker justru singkat: “Sebagian besar isi artikel ini adalah mengulang kejadian yang sudah pernah dilaporkan, menggunakan penyebutan anonim dan anekdot yang dipilih; sumbernya jelas memiliki tujuan pribadi.”
Sangat gaya respons Altman: tidak menjawab tuduhan spesifik, tidak menyangkal keaslian memo, hanya mempertanyakan motivasinya.
Di atas mayat milik organisasi nirlaba, tumbuh sebatang pohon penghasil uang
Sepuluh tahun OpenAI, jika ditulis menjadi kerangka cerita, kira-kira seperti ini:
Sekelompok idealis yang khawatir tentang risiko AI menciptakan organisasi nirlaba yang digerakkan oleh misi. Organisasi melakukan terobosan teknis yang luar biasa. Terobosan itu menarik modal besar. Modal membutuhkan imbal hasil. Misi mulai tersisih. Tim keamanan dibubarkan. Orang-orang yang mempertanyakan kemudian disingkirkan. Arsitektur nirlaba diubah menjadi entitas yang berorientasi laba. Dewan direksi yang dulu punya wewenang mematikan perusahaan, kini dipenuhi sekutu CEO. Dulu perusahaan berjanji akan menyediakan 20% kapasitas komputasi untuk menjaga keselamatan manusia, sekarang staf PR mereka bilang “itu bukanlah sesuatu yang benar-benar ada”.
Tokoh utama cerita ini, lebih dari seratus orang yang mengalami langsung memberinya label yang sama: “tidak terikat pada kebenaran.”
Dia sedang bersiap membawa perusahaan ini IPO, dengan valuasi di atas 850 miliar dolar.
Catatan: Informasi dalam artikel ini dirangkum dari laporan publik berbagai media seperti The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, dan lainnya.