Peneliti Anthropic Demonstrasi: Menggunakan LLM untuk Mengidentifikasi 500 Kerentanan Zero-Day Secara Massal

robot
Pembuatan abstrak sedang berlangsung

Headline

Peneliti Anthropic di [un]prompted 2026 demonstrasi: LLM menambang 500 kerentanan zero-day secara massal

Summary

Rohan Paul membagikan video presentasi Nicholas Carlini di [un]prompted 2026, berjudul “Black-hat LLMs”. Carlini adalah peneliti keamanan AI di Anthropic, yang mendemonstrasikan bagaimana penyerang menggunakan model bahasa besar untuk mengidentifikasi dan memanfaatkan kerentanan perangkat lunak. Angka inti: 500 eksploitasi zero-day dihasilkan secara otomatis. Yang lebih mengkhawatirkan: seiring kemampuan LLM dalam penelitian kerentanan meningkat, model ancaman sedang beralih—dari “bagaimana menyerang model AI” menjadi “apa yang terjadi ketika AI mulai menyerang sistem lain”.

Analysis

Ini bukan hanya teori di atas kertas, tetapi bukti yang dapat direproduksi. Carlini mencatat LLM menambang cacat nyata yang terlewatkan oleh pengujian fuzz tradisional dan analisis statis, termasuk masalah bypass otentikasi. Dia berulang kali menekankan efisiensi dalam blognya:

  • LLM tidak selalu menciptakan jenis serangan baru, tetapi secara signifikan mengurangi biaya dan ambang untuk serangan yang ada
  • Peningkatan tipikal mencakup: generasi phishing skala besar, pengintaian target otomatis, penggabungan rantai eksploitasi yang terstruktur
  • Tahapan yang awalnya membutuhkan dana atau keahlian tingkat tinggi, telah “dimeratakan” oleh model dan dapat diperluas secara paralel

Tanggapan komunitas (diskusi konferensi dan thread Hacker News) menunjukkan industri mengambil perubahan ini dengan serius. Ada sudut pandang balik yang rasional: Penambangan kerentanan yang dibantu AI mungkin lebih menguntungkan bagi pihak bertahan, karena perusahaan dapat mengintegrasikannya secara sistematis dalam CI/CD dan basis aset, mencakup lebih luas dan menemukan lebih awal. Namun, Carlini dengan jelas menyatakan hasilnya masih tidak pasti—apakah pihak bertahan atau penyerang yang lebih diuntungkan, saat ini tidak ada yang bisa memastikan.

Pertanyaan yang mengkhawatirkan adalah dimensi waktu: jika kemampuan terus meningkat dalam 6-12 bulan ke depan, apa yang akan terjadi? Pekerjaan Carlini menunjukkan bahwa kita masih jauh dari “langit-langit”.

Tinjauan Dampak Pertahanan dan Penyerangan

Dimensi Keuntungan Penyerang Keuntungan Pihak Bertahan
Biaya dan Kecepatan Mengurangi biaya dan mempercepat, phishing/penyelidikan/eksploitasi massal Pemindaian menyeluruh terhadap kode dan konfigurasi, menemukan cacat lebih awal
Cakupan Target ekor panjang dan tumpukan teknologi yang kurang umum dimasukkan ke dalam permukaan serangan Cakupan aset dan rantai pasokan secara menyeluruh dengan frekuensi lebih tinggi
Ambang Profesional Mengurangi persyaratan keterampilan, batas kemampuan skrip muncul lebih tinggi Implementasi berbasis platform, menggabungkan infrastruktur dan keuntungan proses
Ketidakpastian Efektivitas dipengaruhi oleh data/penyelarasan/gangguan perlindungan Perlu mengatasi false positives, kepatuhan dan biaya kolaborasi manusia-mesin

Kesimpulan:

  • LLM sedang menskalakan dan memproses “serangan yang diketahui dapat dilakukan”, bukan menciptakan paradigma baru dari nol
  • Dalam jangka pendek, permainan serangan dan pertahanan tergantung pada siapa yang lebih cepat mengintegrasikan model ke dalam jalur produksi (data, daya komputasi, kemampuan evaluasi dan umpan balik)

Impact Assessment

  • Signifikansi: Tinggi
  • Kategorisasi: Keamanan AI, Penelitian AI, Wawasan Teknis

Penilaian: Kita berada di titik belok “awal tetapi dipercepat”. Yang paling diuntungkan adalah tim bertahan yang memiliki kemampuan rekayasa dan proses, vendor keamanan, perusahaan besar, serta pihak yang dapat mengalokasikan dana dan sumber daya untuk menginkubasi rantai alat. Individu yang melakukan red teaming akan mendapatkan manfaat, tetapi mereka yang berhasil mengimplementasikan secara sistematis akan memperoleh imbalan yang lebih besar terlebih dahulu.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan