Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Saya baru saja membaca sebuah penyelidikan yang dirilis kemarin di The New Yorker yang membuat banyak orang terkejut. Ronan Farrow dan Andrew Marantz mewawancarai lebih dari 100 orang, mendapatkan memoranda internal yang belum pernah dipublikasikan, dan bahkan lebih dari 200 halaman catatan pribadi Dario Amodei (pendiri Anthropic, yang keluar dari OpenAI). Hasilnya pada dasarnya adalah sebuah bom.
Semua dimulai dengan sebuah dokumen 70 halaman yang disusun oleh Ilya Sutskever, kepala ilmuwan OpenAI, pada musim gugur 2023. Dia mengumpulkan pesan dari Slack, komunikasi dengan HR, notulen rapat. Tujuannya? Menjawab satu pertanyaan sederhana: Apakah Sam Altman, yang mungkin mengendalikan teknologi paling berbahaya dalam sejarah, dapat dipercaya? Jawaban Sutskever di baris pertama: Sam menunjukkan pola konsisten... kebohongan.
Contohnya sangat spesifik. Pada Desember 2022, Altman meyakinkan dewan bahwa fitur GPT-4 sudah melewati tinjauan keamanan. Ketika mereka meminta dokumen persetujuan, mereka menemukan bahwa dua dari yang paling kontroversial (penyesuaian kustom dan penerapan asisten pribadi) tidak pernah disetujui. Kemudian ada kasus di India, di mana Microsoft meluncurkan ChatGPT sebelum tinjauan keamanan selesai. Sutskever juga mencatat bahwa Altman mengatakan kepada CTO Mira Murati bahwa proses keamanan tidak begitu penting karena penasihat hukum sudah menyetujui. Ketika Murati memeriksa dengan penasihat hukum? Dia menjawab: "Saya tidak tahu dari mana Sam mendapatkan itu."
Tapi yang paling dingin adalah tentang tim "penyelarasan super". Pada pertengahan 2023, Altman menghubungi seorang mahasiswa dari Berkeley yang meneliti penyelarasan AI, sangat khawatir dengan masalah tersebut, berbicara tentang hadiah penelitian sebesar 1 miliar dolar. Orang itu keluar dari universitas, bergabung dengan OpenAI. Lalu Altman berubah pikiran: membuat tim internal alih-alih hadiah, dan secara publik mengumumkan akan mengalokasikan 20% dari kapasitas komputasi perusahaan (potensi lebih dari 1 miliar). Bahasa yang sangat serius, berbicara tentang "kepunahan manusia" jika penyelarasan tidak diselesaikan.
Dalam kenyataannya? Empat orang yang pernah bekerja di sana mengatakan bahwa hanya dialokasikan 1-2% dari kapasitas total, dengan perangkat keras lama. Tim tersebut dibubarkan tanpa menyelesaikan apa pun. Ketika wartawan meminta wawancara dengan orang-orang yang bertanggung jawab atas penelitian "keamanan eksistensial", jawaban dari tim humas adalah: "Itu bukan sesuatu yang benar-benar ada."
Dan ada lagi. Sarah Friar, CFO OpenAI, secara serius berbeda pendapat dengan Altman tentang IPO. Dia merasa bahwa perusahaan belum siap - banyak birokrasi yang tertunda dan risiko dari janji Altman untuk menghabiskan 600 miliar dalam kapasitas komputasi sangat tinggi. Tapi Altman ingin mempercepat ke Q4 tahun ini. Yang aneh? Friar tidak lagi melapor langsung ke Altman. Sejak Agustus 2025, dia melapor ke Fidji Simo, CEO bisnis aplikasi. Dan Simo sedang cuti sakit sejak minggu lalu.
Seorang mantan anggota dewan menggambarkan Altman seperti ini: dia sangat ingin menyenangkan secara tatap muka, tetapi pada saat yang sama menunjukkan sikap hampir sosiopat terhadap konsekuensi dari menipu. Kombinasi yang sangat jarang. Tapi untuk seorang penjual? Ini adalah bakat yang sempurna. Bahkan eksekutif Microsoft tidak tahan lagi, mengatakan bahwa Altman "mengubah fakta, memutuskan janji, dan secara konstan membatalkan kesepakatan." Salah satu dari mereka membandingkannya dengan Bernie Madoff atau SBF.
Sekarang, mengapa ini begitu penting? Karena OpenAI bukan perusahaan teknologi biasa. Mereka mengembangkan teknologi yang mampu merestrukturisasi ekonomi global, menciptakan senjata bio-kimia dalam skala besar, atau meluncurkan serangan siber. Semua mekanisme keamanan saat ini pada dasarnya bersifat formal. Misi tanpa laba berubah menjadi perlombaan IPO. Mantan kepala ilmuwan menganggap Altman tidak dapat dipercaya. Orang yang bertanggung jawab atas keamanan keluar dan mendirikan Anthropic karena perbedaan mendasar tentang bagaimana AI harus dikembangkan.
Gary Marcus, profesor AI di NYU, kemudian menulis: jika model masa depan dari OpenAI mampu menciptakan senjata bio-kimia atau serangan siber yang bencana, apakah Anda benar-benar merasa aman meninggalkan keputusan itu sepenuhnya kepada Altman?
Jawaban dari OpenAI? Pada dasarnya mengabaikan tuduhan spesifik, tidak menyangkal memoranda, hanya mempertanyakan motif sumbernya. Altman tidak menjawab secara langsung.
Sepuluh tahun OpenAI dalam satu paragraf: sekelompok idealis membentuk NGO yang peduli dengan risiko AI, mencapai kemajuan yang signifikan, menarik modal besar, modal menuntut pengembalian, misi menyerah ruang, tim keamanan dibubarkan, dissiden diusir, struktur tanpa laba berubah menjadi entitas yang menguntungkan, dewan yang bisa menutup perusahaan sekarang penuh dengan sekutu CEO. Lebih dari seratus saksi menggunakan label yang sama untuk tokoh utama: "tidak dibatasi oleh kebenaran". Dan sekarang sedang menuju IPO dengan valuasi di atas 850 miliar.