Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Para peneliti AI memperingatkan bahaya saat mereka meninggalkan ruangan
Para peneliti AI memperingatkan bahaya saat mereka meninggalkan pintu keluar
Analisis oleh Allison Morrow, CNN
Rabu, 18 Februari 2026 pukul 22:21 GMT+9 5 menit baca
Sejumlah staf AI terkenal memutuskan untuk berhenti, dengan beberapa secara eksplisit memperingatkan bahwa perusahaan tempat mereka bekerja bergerak terlalu cepat dan meremehkan kekurangan teknologi tersebut. - d3sign/Moment RF/Getty Images
_Sebuah versi cerita ini muncul di buletin Nightcap CNN Business. Untuk menerimanya di kotak masuk Anda, daftar gratis _di sini.
“Dunia dalam bahaya,” peringatan mantan kepala tim Penelitian Pengamanan Anthropic saat dia meninggalkan perusahaan. Seorang peneliti dari OpenAI, yang juga akan keluar, mengatakan bahwa teknologi ini memiliki “potensi untuk memanipulasi pengguna dengan cara yang kita tidak memiliki alat untuk memahami, apalagi mencegahnya.”
Mereka adalah bagian dari gelombang peneliti dan eksekutif kecerdasan buatan yang tidak hanya meninggalkan pemberi kerja mereka — mereka secara keras membunyikan alarm saat keluar, menarik perhatian pada apa yang mereka anggap sebagai tanda bahaya merah.
Meskipun Silicon Valley dikenal karena tingkat pergantian karyawan yang tinggi, pergantian terbaru ini datang saat pemimpin pasar seperti OpenAI dan Anthropic berlomba menuju IPO yang dapat mempercepat pertumbuhan mereka sekaligus mengundang pengawasan ketat terhadap operasi mereka.
Dalam beberapa hari terakhir, sejumlah staf AI terkenal memutuskan untuk berhenti, dengan beberapa secara eksplisit memperingatkan bahwa perusahaan tempat mereka bekerja bergerak terlalu cepat dan meremehkan kekurangan teknologi tersebut.
Zoë Hitzig, seorang peneliti di OpenAI selama dua tahun terakhir, mengumumkan pengunduran dirinya pada hari Rabu dalam sebuah esai di The New York Times, dengan menyebutkan “keraguan mendalam” tentang strategi iklan yang sedang berkembang dari OpenAI. Hitzig, yang memperingatkan tentang potensi ChatGPT untuk memanipulasi pengguna, mengatakan bahwa arsip data pengguna chatbot tersebut, yang dibangun berdasarkan “ketakutan medis, masalah hubungan mereka, kepercayaan mereka tentang Tuhan dan kehidupan setelah mati,” menghadirkan dilema etika karena orang percaya mereka sedang mengobrol dengan sebuah program yang tidak memiliki motif tersembunyi.
Kritik Hitzig muncul saat situs berita teknologi Platformer melaporkan bahwa OpenAI membubarkan tim “penyesuaian misi,” yang dibentuk pada 2024 untuk mempromosikan tujuan perusahaan memastikan seluruh umat manusia mendapatkan manfaat dari pencarian “kecerdasan umum buatan” — sebuah AI hipotetis yang mampu berpikir setara manusia.
OpenAI tidak segera menanggapi permintaan komentar.
Kepala tim Penelitian Pengamanan Anthropic mengatakan bahwa “sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita.” - Gabby Jones/Bloomberg/Getty Images
Juga minggu ini, Mrinank Sharma, kepala tim Penelitian Pengamanan Anthropic, memposting surat misterius Selasa yang mengumumkan keputusannya untuk meninggalkan perusahaan dan memperingatkan bahwa “dunia dalam bahaya.”
Surat Sharma hanya menyebutkan secara samar tentang Anthropic, perusahaan di balik chatbot Claude. Dia tidak mengatakan mengapa dia pergi tetapi mencatat bahwa “saya merasa bahwa saatnya untuk melangkah telah tiba” dan bahwa “sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita.”
Anthropic mengatakan kepada CNN dalam sebuah pernyataan bahwa mereka berterima kasih atas pekerjaan Sharma dalam memajukan penelitian keamanan AI. Perusahaan mencatat bahwa dia bukan kepala keamanan maupun bertanggung jawab atas perlindungan yang lebih luas di perusahaan.
Sementara itu, di xAI, dua pendiri keluar dalam waktu 24 jam minggu ini, mengumumkan kepergian mereka di X. Itu meninggalkan hanya setengah dari pendiri xAI yang tersisa di perusahaan, yang sedang bergabung dengan SpaceX milik Elon Musk untuk menciptakan perusahaan swasta paling berharga di dunia. Setidaknya lima staf xAI lainnya telah mengumumkan kepergian mereka di media sosial selama minggu lalu.
Tidak segera jelas mengapa pendiri xAI terbaru meninggalkan, dan xAI tidak menanggapi permintaan komentar. Dalam posting media sosial hari Rabu, Musk mengatakan bahwa xAI “dianalisis ulang” untuk mempercepat pertumbuhan, yang “sayangnya membutuhkan perpisahan dengan beberapa orang.”
Meskipun tidak jarang bagi talenta tingkat tinggi untuk berpindah-pindah di industri yang sedang berkembang seperti AI, skala kepergian dalam waktu singkat di xAI menonjol.
Startup ini menghadapi reaksi keras global terhadap chatbot Grok-nya, yang diizinkan menghasilkan gambar pornografi non-konsensual dari wanita dan anak-anak selama berminggu-minggu sebelum tim turun tangan untuk menghentikannya. Grok juga cenderung menghasilkan komentar antisemitik sebagai respons terhadap permintaan pengguna.
Kepergian lain baru-baru ini menyoroti ketegangan antara beberapa peneliti yang khawatir tentang keamanan dan eksekutif puncak yang bersemangat menghasilkan pendapatan.
Pada hari Selasa, The Wall Street Journal melaporkan bahwa OpenAI memecat salah satu eksekutif keamanan teratasnya setelah dia menyuarakan penolakan terhadap peluncuran “mode dewasa” yang memungkinkan konten pornografi di ChatGPT. OpenAI memecat eksekutif keamanan, Ryan Beiermeister, dengan alasan dia mendiskriminasi terhadap seorang karyawan pria — tuduhan yang dikatakan Beiermeister kepada Journal adalah “sangat salah.”
Seorang peneliti di OpenAI mengumumkan pengunduran dirinya pada hari Rabu, dengan menyebutkan “keraguan mendalam” tentang strategi iklan yang sedang berkembang dari OpenAI. - Jaap Arriens/NurPhoto/Shutterstock
OpenAI mengatakan kepada Journal bahwa pemecatannya tidak terkait dengan “masalah apa pun yang dia angkat selama bekerja di perusahaan.”
Perpindahan tingkat tinggi telah menjadi bagian dari cerita AI sejak ChatGPT diluncurkan pada akhir 2022. Tidak lama kemudian, Geoffrey Hinton, yang dikenal sebagai “Godfather of AI,” meninggalkan perannya di Google dan mulai mengedepankan apa yang dia lihat sebagai risiko eksistensial yang ditimbulkan AI, termasuk gangguan ekonomi besar-besaran di dunia di mana banyak orang “tidak akan mampu mengetahui apa yang benar lagi.”
Ramalan kiamat melimpah – termasuk di antara eksekutif AI yang memiliki insentif keuangan untuk membesar-besarkan kekuatan produk mereka sendiri. Salah satu prediksi itu menjadi viral minggu ini, dengan CEO HyperWrite Matt Shumer memposting sebuah tulisan hampir 5.000 kata tentang bagaimana model AI terbaru telah membuat beberapa pekerjaan teknologi menjadi usang.
“Kami memberi tahu Anda apa yang sudah terjadi dalam pekerjaan kami sendiri,” tulisnya, “dan memperingatkan Anda bahwa Anda berikutnya.”
Untuk berita dan buletin CNN lainnya, buat akun di CNN.com
Syarat dan Kebijakan Privasi
Dasbor Privasi
Info Lebih Lanjut