Studi Menemukan Bahwa AI Adalah Ketakutan Keamanan Siber Teratas Organisasi

Lebih dari setengah organisasi kini menempatkan kecerdasan buatan generatif sebagai ancaman keamanan terbesar mereka, melampaui kredensial yang dicuri. Munculnya serangan yang digerakkan AI—mulai dari deepfake hingga phishing yang dipersonalisasi secara hiper—mengguncang keamanan siber, dengan kecepatan dan skala yang mengalahkan pertahanan tradisional.

Menurut The State of Passwordless Identity Assurance, sebuah studi dari HYPR, kecerdasan buatan generatif dan AI yang bersifat agen memungkinkan bentuk serangan yang sepenuhnya baru, termasuk deepfake dan peniruan identitas karyawan. Studi tersebut menemukan bahwa hampir dua pertiga organisasi yang disurvei sudah menjadi sasaran email phishing yang dipersonalisasi—pesan yang dihasilkan AI untuk meniru eksekutif—yang menyoroti betapa cepatnya ancaman ini berkembang.

Phishing adalah jenis serangan siber paling umum yang dihadapi organisasi dalam 12 bulan terakhir, disusul malware dan ransomware. Temuan ini sejalan dengan studi dari Cofense, yang menemukan bahwa laju serangan phishing semakin dipercepat, dengan filter spam menandai satu email phishing setiap 19 detik pada 2025, naik dari satu setiap 42 detik pada tahun sebelumnya.

Kecepatan adalah yang terpenting

Hampir 40% responden melaporkan mengalami semacam insiden keamanan terkait AI generatif dalam 12 bulan terakhir. Kekhawatiran meningkat, karena 43% responden mengidentifikasi serangan yang digerakkan AI sebagai perubahan paling signifikan dalam keamanan siber selama tahun lalu.

Namun, terlalu banyak organisasi masih bereaksi hanya setelah kerusakan terjadi. Tiga dari lima responden mengatakan mereka terkena pajak penyesalan, dengan meningkatkan anggaran keamanan siber mereka hanya setelah pelanggaran sudah terjadi.

Di era AI, pendekatan itu tidak lagi cukup. AI telah meningkatkan skala, kecepatan, dan efektivitas phishing serta serangan siber lainnya. Meskipun sebagian besar serangan berbasis identitas terdeteksi dalam hitungan jam, otomatisasi berbasis AI memungkinkan data dicuri sebelum intervensi manusia dapat terjadi.

Ancaman dari AI yang bersifat agen

Risiko lain yang mulai muncul, yaitu perdagangan yang bersifat agen, juga menjadi sorotan. Menurut HYPR, agen otomatis diperkirakan akan membocorkan lebih banyak kata sandi daripada manusia tahun ini, di tengah meningkatnya laporan bahwa agen bertindak menyimpang.

Perusahaan keamanan AI Irregular baru-baru ini melakukan pengujian di mana agen AI diperintahkan untuk membuat postingan LinkedIn menggunakan materi dari basis data internal sebuah perusahaan. Agen menghindari protokol anti-peretasan dan akhirnya mempublikasikan informasi kata sandi yang sensitif. Dalam kasus lain, agen AI melewati perangkat lunak antivirus untuk mengunduh file yang berisi malware.

0

                    BAGIKAN

0

                TAYANGAN
            

            

            

                Bagikan di FacebookBagikan di TwitterBagikan di LinkedIn

Tag: AI AgenAI AgentsCybersecurityDeepfakesGenerative AIPhishing

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan