Vercel kerangka kerja keamanan AI sumber terbuka deepsec: berjalan sepenuhnya secara lokal untuk mencegah kebocoran data, mendukung sandbox dengan ribuan koneksi secara bersamaan

robot
Pembuatan abstrak sedang berlangsung

Berita dari Coinjie Wang, Vercel mengumumkan open source kerangka kerja pengujian keamanan yang didukung AI agent deepsec, bertujuan untuk mengatasi risiko keamanan dalam pemindaian kode AI di cloud. Alat ini memungkinkan pengembang untuk langsung memanggil kunci Claude atau Codex yang ada di infrastruktur lokal mereka, untuk memeriksa kerentanan dalam basis kode besar tanpa memberikan hak istimewa sumber kode kepada layanan cloud eksternal. deepsec menggunakan dasar Opus 4.7 dan GPT 5.5, serta merancang alur kerja verifikasi silang berulang: setelah penyaringan awal dengan regex, agent akan terlibat dalam melacak aliran data dan menghasilkan laporan, kemudian sekelompok agent lain akan melakukan verifikasi kedua untuk mengeliminasi positif palsu, sehingga tingkat kesalahan akhir dikendalikan antara 10% hingga 20%. Sistem ini menggabungkan metadata Git, mengidentifikasi kontributor yang bertanggung jawab atas kerentanan, dan secara otomatis mengekspor tiket perbaikan. Untuk repositori besar yang membutuhkan waktu beberapa hari untuk dipindai secara lokal, deepsec mendukung distribusi tugas pemindaian ke sandbox Vercel, dengan kapasitas konvensional mencapai ribuan sandbox secara bersamaan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan