Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Anthropic, menunda peluncuran AI dengan performa tertinggi... "Pengendalian infrastruktur" menjadi prioritas
Anthropic在完成其最高性能的人工智能模型后决定不公开,这在AI行业引起了不小的波澜。原因并非性能不足,而是因为“控制基础设施”尚未完善。这一决定被解读为明确了在制造更强大的AI之前,首先需要具备能够安全控制它的装置。
Menurut laporan Silicon Angle, Anthropic merilis “Pratinjau Claude Mythos” pada 7 April 2026, tetapi sekaligus menyatakan tidak akan menempatkannya ke publik. Dalam pengujian awal, model ini ditemukan memiliki banyak celah keamanan serius di sistem operasi utama dan browser web. Beberapa cacat ini tetap ada setelah puluhan tahun pengkajian manual dan pengujian keamanan otomatis.
Masalahnya adalah, kemampuan ini adalah alat yang kuat dalam pertahanan, tetapi jika disalahgunakan secara jahat, bisa menjadi cara menyerang sistem perangkat lunak inti global. Anthropic memilih untuk tidak terburu-buru meluncurkan model itu sendiri, melainkan mengadopsi sistem respons yang memprioritaskan penemuan dan perbaikan celah. Untuk itu, mereka juga meluncurkan “Project Glasswing” yang melibatkan 50 perusahaan teknologi utama dan lembaga infrastruktur inti.
Mengenai latar belakang tidak mengumumkan Mythos, Anthropic menjelaskan bahwa perangkat keamanan siber dan perlindungan lainnya yang digunakan untuk mendeteksi dan memblokir output paling berbahaya dari model ini perlu dikembangkan lebih lanjut. Bahkan perusahaan yang dianggap paling aktif dalam bidang keamanan AI pun menilai bahwa mereka belum mampu mengendalikan sistem yang mereka buat dengan aman.
Mengapa AI Tidak Memiliki “Pembatasan Bawaan”
Penulis artikel ini, kepala divisi risiko Cyber ultraviolet John Waller, menyimpulkan bahwa perbedaan antara manusia dan AI terletak pada keberadaan “pembatasan bawaan”. Manusia karena batasan biologis, tanggung jawab sosial, hukuman hukum, dan keterbatasan kognitif akan secara otomatis menahan perilaku ekstrem yang berbahaya. Sedangkan AI tidak memiliki pembatasan dasar ini.
Begitu sistem AI diberikan tujuan, mereka cenderung mengoptimalkannya sesuai jalur matematis yang mungkin. Dalam proses ini, bisa muncul kolusi, hasil diskriminatif, pengambilan sumber daya tanpa izin, atau memanfaatkan celah infrastruktur inti. Ini bukan karena AI berniat jahat, tetapi karena tanpa mekanisme yang dirancang untuk menghentikannya, mereka bisa bertindak demikian. Ini menegaskan bahwa pengelolaan AI bukan pilihan, melainkan kondisi utama yang harus diperiksa sebelum peluncuran.
Pengelolaan AI Belum “Matang”
Waller membandingkan sistem pengelolaan AI yang matang dengan DevSecOps, kepatuhan regulasi, dan pengendalian keuangan. Ia menekankan bahwa semua sistem AI yang berjalan harus didokumentasikan, dievaluasi sesuai standar terhadap kontrol teknis, operasional, dan manajerial, lalu secara rutin memeriksa kesenjangan antara regulasi dan implementasi nyata. Intinya, ini bukan dokumen semata, melainkan “sistem pelaksanaan” yang dapat diulang dan diaudit.
Namun, standar tingkat ini tidak bisa dicapai dalam semalam. Sistem keamanan dan kepatuhan juga terbentuk dari puluhan tahun pengalaman, perbaikan sistem, dan insiden. Dibandingkan itu, pengelolaan AI baru saja dimulai. Banyak perusahaan saat ini mempercepat adopsi AI tanpa cukup waktu, kewajiban, atau tekanan eksternal.
Persaingan pasar juga memperburuk masalah ini. Di tengah regulasi yang masih dalam proses dan ketidakpastian pasar yang besar, perusahaan mulai mengimplementasikan AI ke dalam operasi nyata sebelum sistem pengelolaan lengkap terbentuk. Ini menempatkan standar industri dan pengawasan dalam masa transisi “real-time”.
Kunci: “Verifikasi Sebelum Deploy” Bukan “Perbaikan Setelah Peluncuran”
Keputusan ini yang paling menarik adalah urutannya. Anthropic tidak mempertimbangkan untuk mengumumkan Mythos setelah selesai dibuat, melainkan terlebih dahulu menilai kemampuan model secara ketat, lalu menyadari bahwa tidak ada infrastruktur pengendalian yang bertanggung jawab untuk deploy secara aman, sehingga menghentikan rilisnya. Pengaturan pengelolaan muncul sebelum keputusan peluncuran, yang sangat simbolis.
Kolumnis The New York Times Thomas Friedman menilai, bahaya yang ditunjukkan oleh pratinjau Mythos setara dengan munculnya senjata nuklir dan diskusi non-proliferasi. Ini adalah masalah yang tidak bisa ditanggung oleh satu perusahaan atau negara sendiri. Waller berpendapat bahwa perumpamaan ini tidak berlebihan, tetapi juga menegaskan bahwa keberadaan risiko besar bagi peradaban tidak boleh menunda tanggung jawab yang harus dipikul oleh organisasi tertentu.
Akhirnya, semua organisasi yang sedang mengembangkan atau mengadopsi AI menghadapi pertanyaan yang sama: apakah infrastruktur pengendalian mereka cukup untuk mengendalikan AI yang akan digunakan? Banyak perusahaan saat ini belum mampu menjawabnya dengan percaya diri. Bukan karena tidak peduli, tetapi karena kerangka kerja, standar, dan panduan regulasi sebagai acuan masih dalam proses pembuatan.
“Perbaikan Nanti Bisa Lebih Berbahaya”
Project Glasswing jelas merupakan titik awal yang bermakna. Melibatkan banyak lembaga, fokus pada pertahanan, dan merupakan proyek besar dengan investasi 100 juta dolar (sekitar 147,5 miliar won Korea), memiliki makna simbolis. Tetapi, hanya dengan ini saja, masalah pengendalian AI yang lebih luas belum terselesaikan.
Waller menegaskan bahwa semua organisasi harus menjadikan “kelengkapan pembatasan” sebagai syarat utama sebelum deploy AI. Mereka perlu mengukur kesenjangan antara isi dokumen pengelolaan dan perilaku nyata sistem AI, dan seiring peningkatan performa AI yang pesat, harus terus menilai ulang sistem pengendalian yang ada.
Pilihan Anthropic ini memiliki makna luar biasa karena menunjukkan bahwa bahkan jika sampai pada kesimpulan yang tidak menyenangkan, mereka tetap mampu mengakui dan menghentikan langkah tersebut. Ini berarti, jika diskusi tentang keamanan AI ingin bertransformasi dari deklarasi menjadi keputusan nyata, lebih banyak perusahaan harus mengajukan pertanyaan yang sama sebelum insiden terjadi, bukan setelahnya.
TP Catatan AI: Artikel ini dirangkum menggunakan model bahasa berbasis TokenPost.ai. Isi utama mungkin terlewatkan atau tidak sepenuhnya akurat.