Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Perluasan Kewenangan Pengambilan Keputusan Mandiri AI, Anthropic Memperkenalkan Mode Otomatis untuk Claude Code
Anthropic sedang memberikan otonomi lebih besar pada alat pemrograman AI mereka, sambil berusaha menyeimbangkan efisiensi dan keamanan.
Pada 24 Maret, Anthropic mengumumkan peluncuran “mode otomatis” (auto mode) untuk Claude Code, yang memungkinkan AI menentukan sendiri operasi mana yang dapat dieksekusi langsung tanpa menunggu konfirmasi satu per satu dari pengguna.
Fitur ini saat ini tersedia dalam versi pratinjau penelitian untuk pengguna rencana tim, dan dalam beberapa hari ke depan akan diperluas ke versi perusahaan dan pengguna API.
Inti dari fitur baru ini adalah mekanisme keamanan bawaan, di mana setiap operasi akan melalui pemeriksaan lapisan keamanan AI sebelum dieksekusi, sistem secara otomatis akan melepas operasi yang dianggap aman dan menahan tindakan yang berisiko.
Anthropic menyatakan bahwa lapisan keamanan ini juga dapat mendeteksi serangan injeksi prompt, yaitu instruksi berbahaya yang disembunyikan dalam konten yang sedang diproses AI, yang berusaha memancing model untuk melakukan operasi yang tidak diinginkan.
Perusahaan menyarankan pengguna untuk menggunakan fitur baru ini di lingkungan sandbox yang terisolasi, untuk mencegah potensi risiko menyebar ke sistem produksi.
Pengembangan Produk Berbasis Masalah Pengembang
Bagi pengembang yang saat ini menggunakan alat pemrograman AI, tantangan umum adalah harus mengawasi setiap langkah AI secara penuh, atau membiarkan model berjalan sendiri dengan risiko yang tidak dapat diprediksi.
Mode otomatis Anthropic pada dasarnya merupakan peningkatan dari perintah Claude Code yang saat ini “tidak lagi meminta konfirmasi dari pengguna (dangerously-skip-permissions)”.
Perintah ini sebelumnya menyerahkan seluruh keputusan kepada AI, sementara mode baru menambahkan lapisan filter keamanan di atasnya.
Dengan membiarkan AI, bukan pengguna, yang memutuskan kapan perlu mengajukan izin, Anthropic berusaha memberikan perlindungan keamanan yang lebih tinggi tanpa mengorbankan efisiensi eksekusi.
Perusahaan seperti GitHub dan OpenAI telah meluncurkan alat pemrograman otomatis yang dapat menggantikan pengembang dalam menjalankan tugas, dan langkah Anthropic kali ini melanjutkan tren tersebut dengan memindahkan kendali pengambilan keputusan izin dari pengguna ke AI itu sendiri.
Peluncuran mode otomatis ini mengikuti serangkaian pembaruan produk terbaru dari Anthropic, termasuk Claude Code Review yang secara otomatis mendeteksi cacat sebelum penggabungan kode, dan Dispatch for Cowork yang memungkinkan pengguna menugaskan tugas kepada agen AI.
Serangkaian langkah ini menunjukkan bahwa Anthropic secara sistematis membangun rangkaian produk alur kerja AI otonom yang ditujukan untuk pengembang perusahaan.
Detail Penting yang Masih Perlu Diperjelas
Namun demikian, fitur ini masih menyimpan ketidakpastian yang perlu diperhatikan.
Anthropic saat ini belum mengungkapkan standar spesifik penilaian risiko operasi oleh lapisan keamanannya, yang justru menjadi informasi utama yang paling dibutuhkan pengembang sebelum mengadopsi fitur ini secara massal.
Selain itu, mode otomatis saat ini hanya mendukung dua model, yaitu Claude Sonnet 4.6 dan Opus 4.6, dan masih dalam tahap pratinjau penelitian, yang berarti produk ini belum final.
Bagi perusahaan yang mempertimbangkan penerapan fitur ini di lingkungan produksi, batasan dan ketidaktransparanan informasi tersebut mungkin menjadi faktor penting dalam penilaian hati-hati.
Peringatan Risiko dan Ketentuan Penyangkalan