Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Ulasan Mendalam dari The New Yorker: Mengapa Orang Dalam OpenAI Menganggap Altman Tidak Bisa Dipercaya?
作者 asli: Xiaobing, Deep Tide TechFlow
Pada musim gugur tahun 2023, Kepala Ilmuwan OpenAI Ilya Sutskever duduk di depan komputer, menyelesaikan dokumen setebal 70 halaman.
Dokumen ini disusun dari catatan pesan Slack, arsip komunikasi HR, dan risalah rapat internal, hanya untuk menjawab satu pertanyaan: Sam Altman, penguasa teknologi yang mungkin paling berbahaya dalam sejarah umat manusia, pada akhirnya bisa dipercaya atau tidak?
Jawaban yang diberikan Sutskever ditulis di baris pertama halaman pertama dokumen tersebut, dengan judul daftar: “Sam menunjukkan pola perilaku yang konsisten …”
Poin pertama: Berbohong.
Dua setengah tahun setelahnya, hari ini, jurnalis investigatif Ronan Farrow dan Andrew Marantz menerbitkan sebuah laporan investigasi yang sangat panjang di The New Yorker. Mereka mewawancarai lebih dari 100 pihak terkait, memperoleh memo internal yang sebelumnya tidak pernah dipublikasikan, serta lebih dari 200 halaman catatan pribadi yang ditinggalkan pendiri Anthropic Dario Amodei pada masa beliau di OpenAI. Kisah yang tersusun dari dokumen-dokumen ini jauh lebih buruk daripada “pertarungan perebutan tahta” pada tahun 2023: bagaimana OpenAI berubah secara bertahap dari organisasi nirlaba yang diciptakan demi keselamatan manusia menjadi mesin komersial, dan hampir setiap pagar pengaman keselamatan, semuanya dibongkar dengan tangan orang yang sama.
Kesimpulan Amodei dalam catatan itu lebih terus terang: “Masalah OpenAI adalah Sam itu sendiri.”
Pengaturan “dosa asal” OpenAI
Untuk memahami bobot laporan ini, kita perlu menjelaskan terlebih dahulu seberapa istimewa perusahaan OpenAI.
Pada tahun 2015, Altman dan sekelompok elit Silicon Valley melakukan sesuatu yang nyaris tanpa preseden dalam sejarah bisnis: menggunakan organisasi nirlaba untuk mengembangkan teknologi yang mungkin paling kuat dalam sejarah umat manusia. Tugas dewan ditulis dengan sangat jelas: keselamatan didahulukan daripada keberhasilan perusahaan, bahkan didahulukan daripada kelangsungan hidup perusahaan. Dalam kata lain, jika suatu hari AI OpenAI menjadi berbahaya, dewan memiliki kewajiban untuk menutup perusahaan itu sendiri.
Seluruh arsitektur bertumpu pada satu asumsi: orang yang memegang AGI haruslah orang yang sangat jujur.
Bagaimana jika salah memilih?
Bom inti laporan ini adalah dokumen 70 halaman itu. Sutskever tidak bermain politik kantor; ia termasuk salah satu ilmuwan AI paling top di dunia. Namun pada tahun 2023, ia semakin yakin pada satu hal: Altman terus-menerus mengatakan kebohongan kepada eksekutif dan dewan.
Satu contoh konkret: pada Desember 2022, Altman menjamin dalam rapat dewan bahwa beberapa fitur dari GPT-4 yang akan dirilis telah melalui tinjauan keamanan. Anggota dewan Toner meminta untuk melihat dokumen persetujuan, lalu mendapati bahwa dua fitur paling kontroversial di antaranya (fine-tuning yang dapat disesuaikan oleh pengguna dan penerapan asisten pribadi) sama sekali tidak memperoleh persetujuan dari panel keamanan.
Hal yang lebih aneh terjadi di India. Seorang karyawan melaporkan kepada anggota dewan lain tentang “pelanggaran tersebut”: Microsoft tidak menyelesaikan tinjauan keamanan yang diperlukan, lalu lebih awal merilis versi awal ChatGPT di India.
Sutskever juga mencatat hal lain dalam memo: Altman pernah mengatakan kepada mantan CTO Mira Murati bahwa proses persetujuan keamanan tidak terlalu penting—penasihat hukum umum perusahaan sudah menyetujuinya. Murati lalu pergi mengonfirmasi dengan penasihat hukum umum tersebut, dan pihak itu menjawab: “Saya tidak tahu dari mana Sam mendapat kesan itu.”
Catatan pribadi Amodei yang 200 halaman
Dokumen Sutskever seperti surat dakwaan jaksa. Catatan pribadi Amodei yang lebih dari 200 halaman bahkan lebih mirip buku harian yang ditulis seorang saksi mata di lokasi kejadian.
Selama beberapa tahun Amodei bekerja sebagai penanggung jawab keamanan di OpenAI, ia menyaksikan sendiri bagaimana perusahaan mundur langkah demi langkah di bawah tekanan bisnis. Dalam catatannya, ia menulis satu detail kunci dari kasus investasi Microsoft tahun 2019: ia pernah menyelipkan klausul “penggabungan dan bantuan” dalam anggaran dasar OpenAI—kurang lebih begini: jika ada perusahaan lain menemukan jalur AGI yang lebih aman, OpenAI harus menghentikan persaingan dan beralih untuk membantu perusahaan tersebut. Itu adalah jaminan keamanan yang paling ia utamakan dalam seluruh transaksi.
Menjelang tanda tangan transaksi, Amodei menemukan sesuatu: Microsoft memperoleh hak untuk menolak klausul itu. Artinya apa? Bahkan jika suatu hari nanti ada pesaing yang menemukan jalur yang lebih baik, Microsoft cukup dengan satu kalimat untuk menutup kewajiban OpenAI untuk membantu. Klausul itu masih ada di atas kertas, tetapi sejak hari penandatanganan menjadi kertas kosong.
Setelah itu, Amodei meninggalkan OpenAI dan mendirikan Anthropic. Persaingan di antara kedua perusahaan itu berakar pada perbedaan mendasar tentang “bagaimana AI seharusnya dikembangkan.”
Komitmen 20% daya komputasi yang menghilang
Ada satu detail dalam laporan yang membuat merinding setelah dibaca, tentang “tim super-alignment” OpenAI.
Pada pertengahan tahun 2023, Altman menghubungi seorang mahasiswa doktoral di Berkeley yang meneliti “alignment yang menipu” (AI bersikap patuh saat diuji, tetapi setelah diterapkan melakukan caranya sendiri). Ia mengatakan dirinya sangat khawatir soal masalah itu, sedang mempertimbangkan pembentukan hadiah penelitian global sebesar 1 miliar dolar. Mahasiswa doktoral itu sangat terdorong, mengambil cuti, lalu bergabung dengan OpenAI.
Namun kemudian Altman mengubah pikiran: tidak mengadakan hadiah eksternal, melainkan membentuk “tim super-alignment” di dalam perusahaan. Perusahaan secara dramatis mengumumkan bahwa mereka akan mengalihkan “20% daya komputasi yang sudah ada” kepada tim tersebut, dengan nilai potensial lebih dari 1 miliar dolar. Bunyi pengumuman itu sangat serius, mengatakan jika masalah alignment tidak terselesaikan, AGI dapat menyebabkan “manusia kehilangan kekuasaan, bahkan kepunahan manusia.”
Jan Leike, yang ditunjuk untuk memimpin tim ini, kemudian memberi tahu wartawan bahwa komitmen itu sendiri adalah alat “retensi talenta” yang sangat efektif.
Bagaimana kenyataannya? Empat orang yang bekerja di tim ini atau berhubungan erat dengannya mengatakan bahwa, daya komputasi yang benar-benar dialihkan hanya 1% hingga 2% dari total daya komputasi perusahaan, dan itu pun perangkat keras yang paling tua. Tim ini kemudian dibubarkan, misinya belum selesai.
Saat reporter meminta untuk mewawancarai orang-orang yang bertanggung jawab atas riset “keamanan keberadaan” di OpenAI, respons hubungan masyarakat perusahaan justru membuat orang menangis sekaligus tertawa: “Itu bukan … sesuatu yang benar-benar ada.”
Altman sendiri bersikap tenang. Ia mengatakan kepada wartawan bahwa “intuisi saya tidak terlalu cocok dengan banyak hal yang bersifat tradisional dalam keamanan AI,” dan bahwa OpenAI tetap akan melakukan “proyek keamanan, atau setidaknya proyek yang bersinggungan dengan keamanan.”
CFO yang tersisih dan IPO yang akan datang
Laporan The New Yorker hanyalah separuh dari kabar buruk hari itu. Pada hari yang sama, The Information mengungkap kabar penting lainnya: CFO OpenAI Sarah Friar dan Altman berselisih serius.
Friar diam-diam memberi tahu rekan kerja bahwa menurutnya OpenAI tahun ini belum siap untuk go public. Dua alasannya: jumlah kerja yang bersifat prosedural dan organisasional yang harus diselesaikan terlalu besar, dan risiko keuangan yang ditimbulkan oleh belanja daya komputasi 5 tahun senilai 600 miliar dolar yang dijanjikan Altman terlalu tinggi. Ia bahkan tidak yakin apakah pertumbuhan pendapatan OpenAI sanggup menopang komitmen-komitmen itu.
Tapi Altman ingin mendorong IPO pada kuartal keempat tahun ini.
Lebih lagi, Friar sudah tidak melapor langsung ke Altman lagi. Mulai Agustus 2025, ia mengubah pelaporannya menjadi kepada Fidji Simo (CEO bisnis aplikasi OpenAI). Dan Simo baru saja mengambil cuti sakit minggu lalu karena alasan kesehatan. Coba nilai situasinya: sebuah perusahaan yang mengejar IPO, CEO dan CFO berselisih mendasar, CFO tidak melapor ke CEO, dan atasan CFO bahkan sedang cuti.
Bahkan eksekutif internal Microsoft pun tidak tahan dan mengatakan bahwa Altman “memelintir fakta, mengingkari janji, dan terus membalikkan perjanjian yang sudah disepakati.” Seorang eksekutif Microsoft bahkan mengatakan begini: “Saya pikir ada kemungkinan tertentu bahwa pada akhirnya dia akan diingat orang sebagai penipu sekelas Bernie Madoff atau SBF.”
Gambaran “si dua muka” Altman
Seorang mantan anggota dewan OpenAI menggambarkan kepada wartawan dua sifat yang melekat pada Altman. Bagian ini mungkin adalah sketsa karakter paling tajam dalam seluruh laporan.
Dewan tersebut mengatakan bahwa Altman memiliki kombinasi sifat yang sangat langka: ia memiliki hasrat yang kuat untuk menyenangkan lawan bicara dan disukai oleh lawan bicara dalam setiap interaksi tatap muka. Pada saat yang sama, ia memiliki rasa tidak peduli yang nyaris bersifat psikopat terhadap konsekuensi yang mungkin ditimbulkan oleh penipuan terhadap orang lain.
Dua sifat itu hadir sekaligus pada satu orang—sangat jarang. Namun bagi seorang tenaga penjual, ini adalah bakat yang paling sempurna.
Sebuah metafora di laporan itu menyebutkannya dengan baik: Jobs terkenal dengan “medan distorsi realitas”; ia mampu membuat seluruh dunia percaya pada visinya. Tapi bahkan Jobs tidak pernah mengatakan kepada pelanggan, “Kalau kamu tidak membeli pemutar MP3 saya, orang yang kamu cintai akan mati.”
Altman pernah mengatakan hal serupa, tentang AI.
Masalah karakter seorang CEO, mengapa itu menjadi risiko semua orang
Jika Altman hanya menjadi CEO perusahaan teknologi biasa, tuduhan-tuduhan ini paling banter hanyalah gosip bisnis yang menarik. Tapi OpenAI tidaklah biasa.
Menurut perkataannya sendiri, mereka sedang mengembangkan teknologi yang mungkin paling kuat dalam sejarah umat manusia. Teknologi itu bisa merombak ekonomi global dan pasar tenaga kerja (OpenAI sendiri baru saja merilis whitepaper kebijakan tentang masalah pengangguran akibat AI), dan juga bisa digunakan untuk membuat senjata biokimia skala besar atau melancarkan serangan siber.
Semua pagar pengaman keselamatan kini tinggal nama. Misi nirlaba para pendiri bergeser demi mengejar IPO. Mantan kepala ilmuwan dan mantan penanggung jawab keamanan sama-sama menilai bahwa CEO “tidak dapat dipercaya.” Mitra-mitra membandingkan CEO itu dengan SBF. Dalam situasi seperti ini, atas dasar apa CEO seperti ini memutuskan sendiri kapan merilis model AI yang mungkin mengubah nasib umat manusia?
Gary Marcus (profesor AI di New York University, dan advokat lama keselamatan AI) menulis satu kalimat setelah membaca laporan itu: jika suatu model OpenAI di masa depan bisa membuat senjata biokimia skala besar atau melancarkan serangan siber yang berakibat bencana, apakah Anda benar-benar merasa aman jika Altman seorang diri yang memutuskan apakah akan merilis atau tidak?
Tanggapan OpenAI terhadap The New Yorker justru ringkas: “Sebagian besar isi artikel ini adalah mengolah kembali peristiwa yang sudah diberitakan, menggunakan penyebutan anonim dan anekdot yang dipilih; sumbernya jelas memiliki tujuan pribadi.”
Respons yang sangat khas dari gaya Altman: tidak menanggapi tuduhan spesifik, tidak menyangkal keaslian memo, hanya mempertanyakan motif.
Di atas tubuh nirlaba, tumbuh pohon penghasil uang
Sepuluh tahun OpenAI, jika ditulis sebagai kerangka cerita, akan seperti ini:
Sekelompok idealis yang khawatir tentang risiko AI menciptakan organisasi nirlaba yang digerakkan misi. Organisasi itu membuat terobosan teknis yang luar biasa. Terobosan itu menarik modal besar. Modal membutuhkan imbal hasil. Misi mulai tersingkir. Tim keamanan dibubarkan. Orang yang mempertanyakan disingkirkan. Arsitektur nirlaba diubah menjadi entitas yang berorientasi laba. Dewan direksi yang dulu punya hak untuk menutup perusahaan, kini dipenuhi sekutu-sekutu CEO. Perusahaan yang dulu berjanji memberikan 20% daya komputasi untuk menjaga keselamatan manusia, sekarang humasnya mengatakan “itu bukan sesuatu yang benar-benar ada.”
Tokoh utama cerita ini, lebih dari seratus orang yang mengalami langsung memberinya label yang sama: “tidak terikat pada kebenaran.”
Ia sedang bersiap membawa perusahaan ini IPO, dengan valuasi melebihi 850 miliar dolar.
Informasi dalam artikel ini disusun dari pemberitaan publik berbagai media, termasuk The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information, dan lainnya.