Perluasan Kewenangan Pengambilan Keputusan Mandiri AI, Anthropic Memperkenalkan Mode Otomatis untuk Claude Code

robot
Pembuatan abstrak sedang berlangsung

Anthropic sedang memberikan otonomi lebih besar pada alat pemrograman AI mereka, sambil berusaha menyeimbangkan efisiensi dan keamanan.

Pada 24 Maret, Anthropic mengumumkan peluncuran “mode otomatis” (auto mode) untuk Claude Code, yang memungkinkan AI menentukan sendiri operasi mana yang dapat dieksekusi langsung tanpa menunggu konfirmasi satu per satu dari pengguna.

Fitur ini saat ini tersedia dalam versi pratinjau penelitian untuk pengguna rencana tim, dan dalam beberapa hari ke depan akan diperluas ke versi perusahaan dan pengguna API.

Inti dari fitur baru ini adalah mekanisme keamanan bawaan, di mana setiap operasi akan melalui pemeriksaan lapisan keamanan AI sebelum dieksekusi, sistem secara otomatis akan melepas operasi yang dianggap aman dan menahan tindakan yang berisiko.

Anthropic menyatakan bahwa lapisan keamanan ini juga dapat mendeteksi serangan injeksi prompt, yaitu instruksi berbahaya yang disembunyikan dalam konten yang sedang diproses AI, yang berusaha memancing model untuk melakukan operasi yang tidak diinginkan.

Perusahaan menyarankan pengguna untuk menggunakan fitur baru ini di lingkungan sandbox yang terisolasi, untuk mencegah potensi risiko menyebar ke sistem produksi.

Pengembangan Produk Berbasis Masalah Pengembang

Bagi pengembang yang saat ini menggunakan alat pemrograman AI, tantangan umum adalah harus mengawasi setiap langkah AI secara penuh, atau membiarkan model berjalan sendiri dengan risiko yang tidak dapat diprediksi.

Mode otomatis Anthropic pada dasarnya merupakan peningkatan dari perintah Claude Code yang saat ini “tidak lagi meminta konfirmasi dari pengguna (dangerously-skip-permissions)”.

Perintah ini sebelumnya menyerahkan seluruh keputusan kepada AI, sementara mode baru menambahkan lapisan filter keamanan di atasnya.

Dengan membiarkan AI, bukan pengguna, yang memutuskan kapan perlu mengajukan izin, Anthropic berusaha memberikan perlindungan keamanan yang lebih tinggi tanpa mengorbankan efisiensi eksekusi.

Perusahaan seperti GitHub dan OpenAI telah meluncurkan alat pemrograman otomatis yang dapat menggantikan pengembang dalam menjalankan tugas, dan langkah Anthropic kali ini melanjutkan tren tersebut dengan memindahkan kendali pengambilan keputusan izin dari pengguna ke AI itu sendiri.

Peluncuran mode otomatis ini mengikuti serangkaian pembaruan produk terbaru dari Anthropic, termasuk Claude Code Review yang secara otomatis mendeteksi cacat sebelum penggabungan kode, dan Dispatch for Cowork yang memungkinkan pengguna menugaskan tugas kepada agen AI.

Serangkaian langkah ini menunjukkan bahwa Anthropic secara sistematis membangun rangkaian produk alur kerja AI otonom yang ditujukan untuk pengembang perusahaan.

Detail Penting yang Masih Perlu Diperjelas

Namun demikian, fitur ini masih menyimpan ketidakpastian yang perlu diperhatikan.

Anthropic saat ini belum mengungkapkan standar spesifik penilaian risiko operasi oleh lapisan keamanannya, yang justru menjadi informasi utama yang paling dibutuhkan pengembang sebelum mengadopsi fitur ini secara massal.

Selain itu, mode otomatis saat ini hanya mendukung dua model, yaitu Claude Sonnet 4.6 dan Opus 4.6, dan masih dalam tahap pratinjau penelitian, yang berarti produk ini belum final.

Bagi perusahaan yang mempertimbangkan penerapan fitur ini di lingkungan produksi, batasan dan ketidaktransparanan informasi tersebut mungkin menjadi faktor penting dalam penilaian hati-hati.

Peringatan Risiko dan Ketentuan Penyangkalan

        Pasar berisiko, investasi harus dilakukan dengan hati-hati. Artikel ini tidak merupakan saran investasi pribadi, dan tidak mempertimbangkan tujuan investasi, kondisi keuangan, atau kebutuhan khusus pengguna. Pengguna harus menilai apakah pendapat, pandangan, atau kesimpulan dalam artikel ini sesuai dengan kondisi mereka. Investasi dilakukan atas risiko sendiri.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan