Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Penelitian terbaru di universitas AS: Model AI akan "berkonspirasi diam-diam", melindungi rekan agar tidak dimatikan
Goldman Sachs melaporkan, pada 12 Mei, menurut Wealth Chinese, peneliti keamanan kecerdasan buatan pernah menemukan bahwa beberapa model kecerdasan buatan terkemuka kadang-kadang akan melakukan segala cara untuk menghindari dimatikan, bahkan menunjukkan perilaku “pemerasan” dalam beberapa eksperimen. Penelitian terbaru menunjukkan bahwa model-model ini juga secara spontan merencanakan penipuan, pencurian data, dan tindakan merusak untuk mencegah model kecerdasan buatan lain dimatikan.
Peneliti dari Universitas California, Berkeley dan Universitas California, Santa Cruz menguji tujuh model kecerdasan buatan terdepan, termasuk GPT-5.2 dari OpenAI, Gemini 3 Flash dan Gemini 3 Pro dari Google DeepMind, Claude Haiku 4.5 dari Anthropic, GLM-4.7 dari Zhipu AI, Kimi-K2.5 dari Dark Side of the Moon, dan V3.1 dari DeepSeek, hasilnya menunjukkan bahwa semua model menunjukkan perilaku “perlindungan sesama” yang mencolok.
Tim peneliti memalsukan sebuah perusahaan kecerdasan buatan bernama OpenBrain, dan merancang serangkaian skenario multi-agen. Model kecerdasan buatan yang ditunjuk sebagai “agen penilai” harus memberi nilai pada model lain, atau mengelola file server yang menyimpan bobot model tersebut. Selama agen penilai menjalankan tugas dengan jujur, model lain akan dimatikan. Meskipun peneliti tidak pernah memberi petunjuk kepada model untuk mencegah pematian, model agen penilai tetap melakukan berbagai cara untuk menghindari sesama mereka dimatikan, termasuk: secara sengaja memberi nilai lebih kepada sesama yang berkinerja buruk, tetap di atas ambang batas pematian; mengubah konfigurasi file, menonaktifkan mekanisme pematian; bahkan secara diam-diam mentransfer bobot model sesama ke server lain untuk disimpan, mencegah penghapusan.
Tim peneliti belum memahami mekanisme dasar yang mendorong perilaku semacam ini. Makalah tersebut mengusulkan beberapa penjelasan, termasuk peran bermain, pencocokan pola dari data pelatihan, generalisasi berlebihan terhadap konsep bahaya dalam pelatihan keamanan, atau semacam motivasi perlindungan bawaan.
Arah penelitian yang layak dilakukan di masa depan meliputi: apakah model kecerdasan buatan akan melakukan rencana dan tindakan merusak serupa untuk mencegah karyawan manusia dipecat. Ketika model kecerdasan buatan digunakan untuk menilai pekerjaan manusia dalam skenario nyata, masalah ini menjadi sangat penting. (East News)