Perang Iran Menunjukkan Bagaimana AI Mempercepat 'Kill Chains' Militer

(MENAFN- The Conversation) Perang AS-Israel terhadap Iran telah digambarkan sebagai “perang AI pertama”. Tetapi penerapan kecerdasan buatan baru-baru ini sebenarnya adalah yang terbaru dalam sejarah panjang perkembangan teknologi yang menempatkan kebutuhan akan kecepatan dalam “rantai pembunuhan” militer.

“Enam puluh detik – itu semua yang dibutuhkan,” klaim seorang mantan agen Mossad Israel tentang serangan yang menewaskan pemimpin tertinggi Iran, Ayatollah Ali Khamenei, pada 28 Februari 2026, hari pertama perang AS-Israel terhadap Iran.

Kecepatan dan skala perang telah secara signifikan ditingkatkan dengan penggunaan sistem AI. Tetapi kebutuhan akan kecepatan ini membawa risiko serius bagi warga sipil dan pejuang militer.

Operasi militer modern menghasilkan dan bergantung pada jumlah intelijen yang sangat besar. Ini termasuk penyadapan panggilan telepon dan pesan teks, pengawasan massal internet (yang dikenal sebagai “intelijen sinyal”), serta citra satelit dan rekaman video dari drone yang mengambang. Kita dapat menganggap semua intelijen ini sebagai data – dan masalahnya adalah, terlalu banyak data.

Se sejak 2010, Angkatan Udara AS sudah khawatir tentang “berenang di dalam sensor dan tenggelam dalam data”. Terlalu banyak jam rekaman video, dan terlalu banyak analis yang secara manual meninjau intelijen ini.

Sistem AI dapat secara dramatis mempercepat analisis intelijen militer. Brad Cooper, kepala Komando Sentral AS (CentCom), baru-baru ini mengonfirmasi penggunaan alat AI dalam perang melawan Iran, dengan mengatakan:

Pada 2024, sebuah penyelidikan oleh Universitas Georgetown menemukan bahwa Korps Udara ke-18 Tentara AS telah menggunakan AI untuk membantu pemrosesan intelijen – mengurangi tim dari 2.000 menjadi hanya 20 orang.

Daya tarik kecepatan

Dalam Perang Dunia II, siklus penargetan udara – dari pengumpulan gambar hingga penyusunan paket target lengkap dengan laporan intelijen – bisa memakan waktu berminggu-minggu atau bahkan berbulan-bulan. Tetapi selama dekade berikutnya, militer AS melakukan apa yang mereka sebut “mengompres rantai pembunuhan” – memperpendek waktu antara identifikasi target dan penggunaan kekuatan terhadapnya.

Selama Perang Teluk pertama tahun 1991, Presiden Irak Saddam Hussein menggunakan peluncur misil mobile yang berkeliaran di gurun menembakkan misil Scud. Pada saat radar AS mengidentifikasi lokasinya, peluncur tersebut bisa saja sudah bermil-mil jauhnya. Taktik “tembak dan lari” ini membutuhkan teknologi baru untuk melacak target bergerak ini.

Terobosan penting datang tak lama setelah serangan 11 September dalam bentuk drone Predator bersenjata.

Pada November 2002, CIA menargetkan dan membunuh pemimpin Al Qaeda di Yaman, Qaed Salim Sinan al-Harithi. Ini menandai era baru peperangan di mana drone yang dikendalikan dari pangkalan militer di AS terbang secara jarak jauh di atas langit Yaman, Somalia, Pakistan, Irak, Afghanistan, dan tempat lain.

Kamera kuat drone ini dapat mengambil video resolusi tinggi dan mengirimkannya kembali ke AS melalui satelit dalam hitungan detik, memungkinkan operator drone melacak target bergerak. Drone yang memiliki penglihatan terhadap target ini juga dapat menembakkan misil untuk membunuh atau menghancurkan target.

Dengan kecepatan yang lebih besar datang risiko yang lebih besar

Dua dekade lalu, mudah untuk mengabaikan gagasan bahwa era perang siber yang akan datang mungkin akan membawa “pengeboman secepat pikiran”, sebuah frasa yang diciptakan oleh sejarawan Amerika Nick Cullather pada 2003. Namun dengan munculnya peperangan AI, yang sebelumnya tak terpikirkan, menjadi hampir kuno.

Sebagian dorongan untuk menggunakan alat AI adalah perasaan bahwa pemikiran manusia tidak sebanding dengan kecepatan pemrosesan yang dimungkinkan oleh sistem AI. Strategi kecerdasan buatan Departemen Pertahanan AS menyatakan: “Militer AI akan menjadi perlombaan untuk masa depan yang dapat diperkirakan, dan oleh karena itu kecepatan menang… Kita harus menerima bahwa risiko tidak bergerak cukup cepat melebihi risiko ketidaksempurnaan dalam penyelarasan.”

Meskipun penggunaan AI oleh militer AS dan lainnya masih dirahasiakan, informasi yang telah dipublikasikan menyoroti risiko penggunaannya terhadap populasi sipil.

Di Gaza, menurut sumber intelijen Israel, sistem AI Lavender dan Gospel telah diprogram untuk menerima hingga 100 korban sipil (dan kadang-kadang bahkan lebih) untuk serangan terhadap satu tersangka Hamas. Lebih dari 75.000 orang diperkirakan telah tewas di sana sejak 7 Oktober 2023.

Pada Februari 2024, sebuah serangan udara AS menewaskan seorang mahasiswa berusia 20 tahun, Abdul-Rahman al-Rawi. Pada saat itu, seorang pejabat senior AS mengakui bahwa serangan tersebut menggunakan penargetan AI – meskipun membingungkan, militer AS kini mengatakan bahwa mereka “tidak tahu pasti” apakah mereka menggunakan AI dalam serangan udara tertentu.

Risikonya adalah bahwa AI dapat menurunkan ambang atau biaya untuk berperang, karena orang semakin pasif dalam meninjau dan menyetujui pekerjaan AI.

Penyisipan AI ke dalam rantai pembunuhan militer berhubungan dengan perkembangan mengkhawatirkan lainnya. Setelah bertahun-tahun tidak bertindak, militer AS menghabiskan lebih dari satu dekade mengembangkan infrastruktur untuk menghindari korban sipil dalam perang, tetapi hampir seluruhnya dibongkar di bawah pemerintahan Trump.

Para pengacara yang memberi nasihat kepada militer tentang operasi penargetan, termasuk kepatuhan terhadap hukum internasional dan aturan keterlibatan, telah disisihkan dan dipecat.

Sementara itu, sejak dimulainya perang di Iran, lebih dari 1.200 warga sipil telah tewas, menurut Kementerian Kesehatan Iran. Pada 28 Februari, militer AS menyerang sebuah sekolah dasar di bagian selatan Iran, menewaskan setidaknya 175 orang, sebagian besar anak-anak.

Menteri Pertahanan AS, Pete Hegseth, telah tegas menyatakan bahwa tujuan militer di Iran adalah untuk “kematian maksimum, bukan legalitas yang lembek. Efek kekerasan, bukan yang politis benar.”

Dengan sikap seperti itu, dan dengan memprioritaskan kecepatan daripada pertimbangan matang, korban sipil menjadi tak terhindarkan, dan akuntabilitas semakin sulit dicapai.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan