Ketika Algoritma Bergabung dengan Medan Perang: Dilema AI Militer AS

(MENAFN- AzerNews) Akbar Novruz Baca selengkapnya

Pentagon menggunakan alat dari Anthropic dan OpenAI, perusahaan kecerdasan buatan utama, untuk membuat keputusan militer di Iran, dan panduan keputusan ini bisa berbiaya nyawa.

Laporan dari Wall Street Journal dan Axios menunjukkan bahwa Claude digunakan selama serangan besar-besaran gabungan AS-Israel ke Iran yang dimulai pada hari Sabtu. Situasi ini menyoroti kompleksitas yang terlibat dalam upaya militer AS untuk menarik alat AI canggih dari operasinya, terutama ketika teknologi tersebut sudah sangat terintegrasi dalam misi mereka.

Menurut Journal, komando militer AS menggunakan alat AI ini untuk keperluan intelijen, membantu dalam pemilihan target, dan melakukan simulasi medan perang.

Pada hari Jumat, beberapa jam sebelum serangan ke Iran dimulai, mantan Presiden Trump memerintahkan semua lembaga federal untuk segera menghentikan penggunaan Claude. Dia mengkritik Anthropic di Truth Social, menyebutnya sebagai “Perusahaan AI Sayap Kiri Radikal yang dijalankan oleh orang-orang yang tidak tahu apa itu dunia nyata.”

Setelah ketegangan dengan Anthropic, perusahaan pesaing OpenAI masuk. CEO OpenAI, Sam Altman, mengumumkan bahwa dia telah mencapai kesepakatan dengan Pentagon untuk penggunaan alat perusahaan, termasuk ChatGPT, dalam jaringan rahasia mereka.

Tampaknya, ini bukan pertama kalinya kita mendengar laporan tentang penggunaan AI dalam ‘konflik AS’.

Ketegangan meningkat setelah penggunaan Claude oleh militer AS dalam operasi untuk menangkap Presiden Venezuela, Nicolás Maduro, pada Januari. Anthropic keberatan, mengutip ketentuan penggunaan yang melarang aplikasi Claude untuk tujuan kekerasan, pengembangan senjata, atau pengawasan.

Sejak insiden itu, hubungan antara Trump, Pentagon, dan perusahaan AI memburuk. Dalam sebuah posting panjang di X pada hari Jumat, Menteri Pertahanan Pete Hegseth menuduh Anthropic “sombong dan pengkhianatan,” menegaskan bahwa “pejuang perang Amerika tidak akan pernah menjadi sandera oleh keinginan ideologis Big Tech.” Dia menuntut akses penuh dan tanpa batas ke semua model AI Anthropic untuk setiap tujuan yang sah.

Namun, Hegseth mengakui tantangan untuk dengan cepat memisahkan sistem militer dari alat AI, mengingat penggunaannya yang luas. Dia menyebutkan bahwa Anthropic akan terus menyediakan layanan selama “tidak lebih dari enam bulan” untuk memastikan transisi yang lancar ke layanan yang lebih sesuai dan patriotik.

** Tapi seberapa mungkin ini? Bisakah AI benar-benar digunakan dalam perang?**

Peran Claude dalam perang melibatkan analisis citra satelit dan komunikasi yang disadap. Dia mengurutkan dan mengonfirmasi target bernilai tinggi, mensimulasikan hasil serangan sebelum terjadi, dan melacak posisi musuh secara real-time.

Beberapa model AI saat ini digunakan dalam aplikasi militer, termasuk GROK, Gemini dari Google, dan berbagai model GPT dari OpenAI. Pentagon mengamankan kontrak dengan OpenAI tak lama setelah ketegangan dengan Anthropic, secara khusus memungkinkan penggunaan model GPT untuk keperluan militer rahasia pada Februari 2026. Gemini, di sisi lain, ditunjuk untuk penggunaan tidak rahasia, dengan negosiasi akses yang sedang berlangsung. Pentagon juga telah memberikan kontrak bernilai hingga $200 juta pada Juli 2025 melalui Chief Digital and Artificial Intelligence Office (CDAO) untuk meningkatkan AI frontier dalam peperangan dan perencanaan.

Perlu dicatat bahwa model-model ini adalah LLMs - Large Language Models, yaitu jenis AI yang dilatih dengan data dalam jumlah besar untuk memahami, menghasilkan, dan menganalisis teks yang mirip manusia.

Ini mencakup fokus pada model bahasa besar, alur kerja agenik, dan baik penggunaan rahasia maupun tidak rahasia untuk keamanan nasional dan keperluan intelijen. Meski ada kemajuan ini, CEO OpenAI, Sam Altman, menyatakan kekhawatirannya tentang kesiapan sistem AI untuk membuat keputusan perang, menekankan bahwa selama minggu yang sama dia menandatangani kesepakatan dengan Pentagon bahwa AI tidak boleh dipercayakan pada keputusan penting tersebut.

Masa depan mungkin menyaksikan munculnya senjata otonom yang mampu memilih dan menyerang target tanpa persetujuan manusia, tentara humanoid berbasis AI di medan perang, kawanan drone yang beradaptasi secara real-time, pengawasan luas terhadap musuh dan warga sipil, serta peperangan prediktif yang mengantisipasi serangan sebelum terjadi.

“Dalam kenyataannya, integrasi AI ke dalam peperangan tidak dimulai dengan krisis terbaru,” kata ahli AI dan keamanan siber Ryan Colloway kepada AzerNEWS.

“Pentagon telah menghabiskan bertahun-tahun mengembangkan program peperangan algoritmik yang dirancang untuk meningkatkan kesadaran medan perang dan mempercepat pengambilan keputusan. Salah satu inisiatif paling awal dan terkenal adalah Project Maven, diluncurkan untuk memungkinkan sistem pembelajaran mesin menganalisis rekaman drone dan secara otomatis mengidentifikasi objek seperti kendaraan, sistem senjata, dan infrastruktur. Proyek ini menandai titik balik dalam bagaimana kecerdasan buatan dapat meningkatkan operasi intelijen militer. Israel juga menggunakan sistem AI, seperti ‘Lavender’ – mengidentifikasi militan yang dicurigai dari analisis data; The Gospel – menyarankan target serangan.”

** Namun, ketergantungan yang semakin besar pada perusahaan AI sektor swasta telah menciptakan ketegangan baru dan tak terduga antara Silicon Valley dan lembaga keamanan nasional, kata ahli tersebut:**

“Melalui entitas seperti Chief Digital and Artificial Intelligence Office, Amerika Serikat semakin berusaha mengintegrasikan teknologi frontier ke dalam perencanaan keamanan nasional. Dalam beberapa tahun terakhir, kantor ini telah memberikan kontrak besar yang bertujuan mempercepat pengembangan model bahasa besar, analitik canggih, dan sistem otonom yang mampu mendukung operasi rahasia maupun tidak rahasia. Banyak perusahaan teknologi berusaha memberlakukan pembatasan pada penggunaan sistem mereka, terutama terkait operasi mematikan atau pengawasan. Ketegangan ini bukan hal baru. Pada 2018, protes internal di Google memaksa perusahaan menarik diri dari kerja sama militer terkait Project Maven, menunjukkan bagaimana kekhawatiran etis di sektor teknologi dapat langsung mempengaruhi kebijakan pertahanan.”

** Meski integrasi AI berkembang pesat, bahkan para pemimpin industri pun memperingatkan bahwa teknologi ini masih jauh dari siap untuk membuat keputusan medan perang secara mandiri, tambahnya:**

“Kemunculan sistem senjata otonom sepenuhnya tetap menjadi salah satu isu paling kontroversial dalam keamanan internasional, karena lembaga global belum menetapkan regulasi yang mengikat mengenai mesin yang mampu memilih dan menyerang target secara independen. Kecerdasan buatan semakin mengubah kecepatan, skala, dan kompleksitas peperangan modern. Alih-alih menggantikan tentara, sistem AI saat ini berfungsi terutama sebagai alat pendukung keputusan, menganalisis aliran data besar, mengidentifikasi pola yang tidak terlihat oleh analis manusia, dan menawarkan kemungkinan tindakan kepada komandan. Dalam lingkungan medan perang di mana informasi datang dari satelit, drone, sensor, dan penyadapan elektronik secara bersamaan, kekuatan analisis ini dapat memberikan keuntungan yang menentukan. Jika kedua pihak mengandalkan penargetan dan intelijen berbantuan AI, konflik bisa meningkat lebih cepat dari yang bisa ditanggapi diplomasi manusia.”

** Colloway secara jujur menyatakan kekhawatirannya, menunjukkan bahwa percepatan pengambilan keputusan militer dapat menimbulkan risiko baru:**

“Seiring AI mempercepat waktu untuk menilai ancaman dan merekomendasikan respons, jendela untuk deliberasi manusia menyempit. Analis militer semakin memperingatkan bahwa peperangan yang didorong algoritma bisa mempersingkat siklus keputusan hingga eskalasi terjadi lebih cepat dari reaksi diplomasi. Pertanyaan paling kontroversial, bagaimanapun, menyangkut masa depan senjata otonom sepenuhnya. Kekuasaan militer besar, termasuk Amerika Serikat, China, Rusia, dan Israel, sedang aktif mengeksplorasi teknologi yang pada akhirnya dapat memungkinkan mesin mengidentifikasi dan menyerang target tanpa persetujuan manusia langsung. Meski diskusi internasional di PBB telah berusaha mengatasi implikasi etis dari sistem semacam itu, saat ini belum ada kerangka kerja global yang mengikat untuk mengatur pengembangannya. Yang pasti, medan perang abad ke-21 tidak hanya akan didefinisikan oleh tentara, tank, atau rudal, tetapi juga oleh algoritma yang diam-diam memproses data di balik layar.”

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan