Bahaya utama dari AI — bukan pada apa yang bisa salah, tetapi seberapa cepat hal itu terjadi. Secara historis, manusia dalam rantai pengambilan keputusan berfungsi sebagai semacam pengaman — sesuatu yang memperlambat proses cukup lama agar penilaian dapat dilakukan pada saat yang tepat. AI berbasis agen sepenuhnya menghilangkan pengaman ini. Hanya konsekuensi dari serangan siber ofensif yang harus membuat dewan direksi mana pun waspada. Sebelumnya, ekonomi membatasi penyerang dari otomatisasi serangan secara penuh: itu sederhana tidak menguntungkan. Pembelajaran mesin menghapus batasan ini. Ketika sistem AI berinteraksi satu sama lain di luar lingkungan yang terkendali dan sesuatu berjalan tidak sesuai kecepatan mesin — menghentikannya bisa jadi tidak mungkin. Konsekuensi tak terduga dari teknologi ini, yang bahkan belum kita mulai pikirkan, tidak akan berkembang secara lambat.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan