Studi Menemukan Bahwa AI Adalah Ketakutan Keamanan Siber Teratas Organisasi

Lebih dari setengah organisasi kini menempatkan kecerdasan buatan generatif sebagai ancaman keamanan terbesar mereka, melampaui kredensial yang dicuri. Munculnya serangan yang digerakkan oleh AI—mulai dari deepfake hingga phishing yang dipersonalisasi secara hiper—mengguncang dunia siber, dengan kecepatan dan skala yang mengalahkan pertahanan tradisional.

Menurut The State of Passwordless Identity Assurance, sebuah studi dari HYPR, AI generatif dan AI beragensi memungkinkan bentuk serangan yang benar-benar baru, termasuk deepfake dan peniruan identitas karyawan. Studi tersebut menemukan bahwa hampir dua pertiga dari organisasi yang disurvei telah menjadi sasaran email phishing yang dipersonalisasi—pesan yang dihasilkan oleh AI yang dirancang untuk meniru para eksekutif—yang menyoroti betapa cepatnya ancaman ini berkembang.

Phishing adalah jenis serangan siber yang paling umum dihadapi organisasi dalam 12 bulan terakhir, diikuti oleh malware dan ransomware. Temuan ini sejalan dengan studi dari Cofense, yang menemukan bahwa tingkat serangan phishing semakin dipercepat, dengan filter spam menandai satu email phishing setiap 19 detik pada 2025, naik dari satu setiap 42 detik pada tahun sebelumnya.

Kecepatan adalah kuncinya

Hampir 40% responden melaporkan mengalami beberapa bentuk insiden keamanan terkait AI generatif dalam 12 bulan terakhir. Kekhawatiran semakin meningkat, karena 43% responden mengidentifikasi serangan yang digerakkan oleh AI sebagai perubahan paling signifikan dalam keamanan siber selama tahun lalu.

Namun terlalu banyak organisasi masih bereaksi hanya setelah kerusakan terjadi. Tiga dari lima responden mengatakan mereka mengalami “pajak karena penyesalan”, sehingga meningkatkan anggaran keamanan siber mereka hanya setelah pelanggaran sudah terjadi.

Di era AI, pendekatan itu tidak lagi cukup. AI telah meningkatkan skala, kecepatan, dan efektivitas phishing serta serangan siber lainnya. Meskipun sebagian besar serangan berbasis identitas terdeteksi dalam hitungan jam, otomatisasi yang digerakkan oleh AI memungkinkan data dicuri sebelum intervensi manusia dapat terjadi.

Ancaman dari AI beragensi

Risiko yang muncul lainnya, yaitu perdagangan beragensi, juga menjadi sorotan. Menurut HYPR, agen otomatis ditargetkan untuk membocorkan lebih banyak kata sandi daripada manusia tahun ini, di tengah meningkatnya laporan bahwa agen-agen menjadi liar.

Perusahaan keamanan AI Irregular baru-baru ini melakukan sebuah pengujian di mana agen AI diperintahkan untuk membuat postingan LinkedIn menggunakan materi dari basis data internal sebuah perusahaan. Agen-agen tersebut menghindari protokol anti-peretasan dan akhirnya memublikasikan informasi kata sandi yang sensitif. Dalam kasus lain, agen AI melewati perangkat lunak antivirus untuk mengunduh file yang berisi malware.

0

                    BAGIAN

0

                TAYANGAN
            

            

            

                Bagikan di FacebookBagikan di TwitterBagikan di LinkedIn

Tag: AI AgenCybersecurityDeepfakesGenerative AIPhishing

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan