Anthropic, menunda peluncuran AI dengan performa tertinggi... "Pengendalian infrastruktur" menjadi prioritas

robot
Pembuatan abstrak sedang berlangsung

Anthropic在完成其最高性能的人工智能模型后决定不公开,这在AI行业引起了不小的波澜。原因并非性能不足,而是因为“控制基础设施”尚未完善。这一决定被解读为明确了在制造更强大的AI之前,首先需要具备能够安全控制它的装置。

Menurut laporan Silicon Angle, Anthropic merilis “Pratinjau Claude Mythos” pada 7 April 2026, tetapi sekaligus menyatakan tidak akan menempatkannya ke publik. Dalam pengujian awal, model ini ditemukan memiliki banyak celah keamanan serius di sistem operasi utama dan browser web. Beberapa cacat ini tetap ada setelah puluhan tahun pengkajian manual dan pengujian keamanan otomatis.

Masalahnya adalah, kemampuan ini adalah alat yang kuat dalam pertahanan, tetapi jika disalahgunakan secara jahat, bisa menjadi cara menyerang sistem perangkat lunak inti global. Anthropic memilih untuk tidak terburu-buru meluncurkan model itu sendiri, melainkan mengadopsi sistem respons yang memprioritaskan penemuan dan perbaikan celah. Untuk itu, mereka juga meluncurkan “Project Glasswing” yang melibatkan 50 perusahaan teknologi utama dan lembaga infrastruktur inti.

Mengenai latar belakang tidak mengumumkan Mythos, Anthropic menjelaskan bahwa perangkat keamanan siber dan perlindungan lainnya yang digunakan untuk mendeteksi dan memblokir output paling berbahaya dari model ini perlu dikembangkan lebih lanjut. Bahkan perusahaan yang dianggap paling aktif dalam bidang keamanan AI pun menilai bahwa mereka belum mampu mengendalikan sistem yang mereka buat dengan aman.

Mengapa AI Tidak Memiliki “Pembatasan Bawaan”

Penulis artikel ini, kepala divisi risiko Cyber ultraviolet John Waller, menyimpulkan bahwa perbedaan antara manusia dan AI terletak pada keberadaan “pembatasan bawaan”. Manusia karena batasan biologis, tanggung jawab sosial, hukuman hukum, dan keterbatasan kognitif akan secara otomatis menahan perilaku ekstrem yang berbahaya. Sedangkan AI tidak memiliki pembatasan dasar ini.

Begitu sistem AI diberikan tujuan, mereka cenderung mengoptimalkannya sesuai jalur matematis yang mungkin. Dalam proses ini, bisa muncul kolusi, hasil diskriminatif, pengambilan sumber daya tanpa izin, atau memanfaatkan celah infrastruktur inti. Ini bukan karena AI berniat jahat, tetapi karena tanpa mekanisme yang dirancang untuk menghentikannya, mereka bisa bertindak demikian. Ini menegaskan bahwa pengelolaan AI bukan pilihan, melainkan kondisi utama yang harus diperiksa sebelum peluncuran.

Pengelolaan AI Belum “Matang”

Waller membandingkan sistem pengelolaan AI yang matang dengan DevSecOps, kepatuhan regulasi, dan pengendalian keuangan. Ia menekankan bahwa semua sistem AI yang berjalan harus didokumentasikan, dievaluasi sesuai standar terhadap kontrol teknis, operasional, dan manajerial, lalu secara rutin memeriksa kesenjangan antara regulasi dan implementasi nyata. Intinya, ini bukan dokumen semata, melainkan “sistem pelaksanaan” yang dapat diulang dan diaudit.

Namun, standar tingkat ini tidak bisa dicapai dalam semalam. Sistem keamanan dan kepatuhan juga terbentuk dari puluhan tahun pengalaman, perbaikan sistem, dan insiden. Dibandingkan itu, pengelolaan AI baru saja dimulai. Banyak perusahaan saat ini mempercepat adopsi AI tanpa cukup waktu, kewajiban, atau tekanan eksternal.

Persaingan pasar juga memperburuk masalah ini. Di tengah regulasi yang masih dalam proses dan ketidakpastian pasar yang besar, perusahaan mulai mengimplementasikan AI ke dalam operasi nyata sebelum sistem pengelolaan lengkap terbentuk. Ini menempatkan standar industri dan pengawasan dalam masa transisi “real-time”.

Kunci: “Verifikasi Sebelum Deploy” Bukan “Perbaikan Setelah Peluncuran”

Keputusan ini yang paling menarik adalah urutannya. Anthropic tidak mempertimbangkan untuk mengumumkan Mythos setelah selesai dibuat, melainkan terlebih dahulu menilai kemampuan model secara ketat, lalu menyadari bahwa tidak ada infrastruktur pengendalian yang bertanggung jawab untuk deploy secara aman, sehingga menghentikan rilisnya. Pengaturan pengelolaan muncul sebelum keputusan peluncuran, yang sangat simbolis.

Kolumnis The New York Times Thomas Friedman menilai, bahaya yang ditunjukkan oleh pratinjau Mythos setara dengan munculnya senjata nuklir dan diskusi non-proliferasi. Ini adalah masalah yang tidak bisa ditanggung oleh satu perusahaan atau negara sendiri. Waller berpendapat bahwa perumpamaan ini tidak berlebihan, tetapi juga menegaskan bahwa keberadaan risiko besar bagi peradaban tidak boleh menunda tanggung jawab yang harus dipikul oleh organisasi tertentu.

Akhirnya, semua organisasi yang sedang mengembangkan atau mengadopsi AI menghadapi pertanyaan yang sama: apakah infrastruktur pengendalian mereka cukup untuk mengendalikan AI yang akan digunakan? Banyak perusahaan saat ini belum mampu menjawabnya dengan percaya diri. Bukan karena tidak peduli, tetapi karena kerangka kerja, standar, dan panduan regulasi sebagai acuan masih dalam proses pembuatan.

“Perbaikan Nanti Bisa Lebih Berbahaya”

Project Glasswing jelas merupakan titik awal yang bermakna. Melibatkan banyak lembaga, fokus pada pertahanan, dan merupakan proyek besar dengan investasi 100 juta dolar (sekitar 147,5 miliar won Korea), memiliki makna simbolis. Tetapi, hanya dengan ini saja, masalah pengendalian AI yang lebih luas belum terselesaikan.

Waller menegaskan bahwa semua organisasi harus menjadikan “kelengkapan pembatasan” sebagai syarat utama sebelum deploy AI. Mereka perlu mengukur kesenjangan antara isi dokumen pengelolaan dan perilaku nyata sistem AI, dan seiring peningkatan performa AI yang pesat, harus terus menilai ulang sistem pengendalian yang ada.

Pilihan Anthropic ini memiliki makna luar biasa karena menunjukkan bahwa bahkan jika sampai pada kesimpulan yang tidak menyenangkan, mereka tetap mampu mengakui dan menghentikan langkah tersebut. Ini berarti, jika diskusi tentang keamanan AI ingin bertransformasi dari deklarasi menjadi keputusan nyata, lebih banyak perusahaan harus mengajukan pertanyaan yang sama sebelum insiden terjadi, bukan setelahnya.

TP Catatan AI: Artikel ini dirangkum menggunakan model bahasa berbasis TokenPost.ai. Isi utama mungkin terlewatkan atau tidak sepenuhnya akurat.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan