Ketika AI belajar bertindak sendiri: medan perang geopolitik baru di era Agen

chip adalah medan perang dari perang sebelumnya. Dalam perang berikutnya, yang diperebutkan adalah sesuatu yang lebih sulit dikendalikan, lebih sulit dilacak, dan juga lebih sulit dilawan—yaitu AI Agent yang mampu merencanakan secara mandiri, mengeksekusi, dan melakukan iterasi sendiri. Pada tahun 2026, ia sedang menulis ulang logika bisnis dan batas keamanan nasional secara bersamaan.

Sebuah perusahaan yang dibatalkan kontraknya oleh Pentagon

Pada kuartal pertama tahun 2026, sebuah peristiwa yang hampir tidak menarik perhatian di dalam negeri secara diam-diam terjadi: Departemen Pertahanan Amerika Serikat menghentikan kontrak kerjasama dengan Anthropic, dan beralih ke perjanjian baru dengan OpenAI, yang mengizinkan modelnya digunakan dalam sistem rahasia di bawah kerangka “segala penggunaan yang sah”.

Alasan pemutusan kontrak tersebut bukan karena kemampuan teknis yang kurang, melainkan karena Anthropic bersikeras menetapkan garis merah etika dalam penggunaan militer—terutama menolak membuka izin untuk sistem pengawasan dan senjata otonom. Pentagon kemudian memasukkannya ke dalam daftar “risiko rantai pasokan keamanan nasional”.

Peristiwa ini jauh melampaui sekadar keberhasilan atau kegagalan sebuah kontrak. Ia mengungkapkan sebuah realitas yang sedang terbentuk dengan cepat: Posisi etika AI telah menjadi alat dalam permainan geopolitik. Memilih model siapa, membuka izin apa, dan di mana menandai garis merah—keputusan yang dulu merupakan kebijakan internal perusahaan teknologi, kini diambil alih oleh logika keamanan nasional.

I. Sekilas Konsep · Apa itu AI Agent

Berbeda dari pola respons “masukan-keluaran” AI tradisional yang sekali pakai, AI Agent mampu merencanakan secara mandiri, memanggil alat, menyelesaikan tugas berlangkah-langkah, dan melakukan iterasi berdasarkan hasilnya—tanpa perlu intervensi manusia secara bertahap. Musim gugur 2025 dianggap sebagai tahun pertama AI Agentik, dengan produk seperti Claude Code, GPT-o3 membawa kemampuan ini ke arus utama.

Agent: Aset Strategis yang Diremehkan

Sebagian besar diskusi tentang geopolitik AI masih berfokus pada “siapa yang punya model besar yang lebih kuat”. Tapi jumlah parameter model besar adalah indikator yang relatif transparan dan dapat dilacak—sementara kemampuan Agent, sulit diukur, sulit diblokir, dan sulit direplikasi.

Majalah National Interest dalam laporan analisis dua minggu lalu menyebut perubahan ini sebagai “titik kritis”: Negara yang pertama menguasai AI Agent dan mengintegrasikannya ke dalam strategi nasional akan merombak tatanan bisnis, keamanan, dan pemerintahan global selama beberapa dekade ke depan. Ini bukan sekadar prediksi, melainkan proses yang sedang berlangsung.

Mari kita uraikan kekuatan spesifik Agent dalam keamanan nasional:

Di sisi serangan

  • Menemukan dan memanfaatkan celah jaringan secara mandiri, kecepatan serangan melampaui batas intervensi manusia

  • Menghasilkan informasi palsu dan video palsu secara massal, mengendalikan opini dengan kecepatan mesin

  • Koordinasi serangan drone swarm, mengurangi risiko korban jiwa

  • Mengintegrasikan intelijen multi-sumber secara real-time, mempercepat waktu pengambilan keputusan strategis

Di sisi pertahanan

  • Deteksi ancaman berbasis AI, menganalisis jutaan kejadian harian dan menyaring noise

  • Menghasilkan otomatis aturan firewall, menanggapi kecepatan iterasi penyerang AI

  • Memantau risiko rantai pasokan secara real-time, mengidentifikasi perilaku akses yang mencurigakan

  • Otomatisasi penerapan arsitektur zero-trust pada infrastruktur kritis

Pada tahun 2025, Anthropic secara terbuka mengonfirmasi bahwa peretas China telah menggunakan AI Agent secara “belum pernah terjadi sebelumnya” untuk otomatisasi serangan siber. Sementara itu, Gedung Putih Amerika Serikat melalui proyek “Misi Genesis” menempatkan Agent di bidang penelitian ilmiah dan pertahanan untuk mempercepat inovasi. Laporan CFR (Council on Foreign Relations) mencatat proses transformasi Tentara Pembebasan Rakyat dari “informatif” ke “intelijen”—teknologi Agent adalah mesin penggerak utama perubahan ini.

Dua Perlombaan yang Berlangsung Bersamaan

Jika perang chip adalah pertarungan “penguncian keras”, maka perang Agent menampilkan struktur yang sangat berbeda: dua perlombaan yang berlangsung bersamaan dan saling terkait—satu merebut batas kemampuan, yang lain merebut hak untuk menetapkan aturan.

Dari segi kompetensi, jalur kemajuan AS dan China mulai menunjukkan divergensi menarik. AS mengambil pendekatan “full-stack output”: Pemerintah Trump pada akhir 2025 menyetujui ekspor chip H200 dari Nvidia ke China, sekaligus menulis “standar teknologi AS memimpin pengembangan AI global” ke dalam strategi keamanan nasional. Logikanya: selama teknologi dasar AS digunakan secara global, AS memegang kunci ekosistem ini.

China memilih jalur “melampaui di lapisan aplikasi”. ByteDance memimpin dalam berbagai aplikasi terintegrasi Agent yang diluncurkan ke pasar sebelum produk serupa dari AS; GLM-5.1 dari Z.ai mampu bekerja secara mandiri selama 8 jam dalam satu tugas; Meta mengakuisisi tim Manus yang bermarkas di Singapura, mencerminkan arus talenta Agent top di seluruh dunia.

  • Kecepatan komersialisasi AI Agent (China vs produk serupa AS) ByteDance sekitar 6-9 bulan lebih cepat

  • Prediksi pertumbuhan pengeluaran keamanan AI tahun 2026 (Gartner) +44%, mencapai 238 miliar dolar

  • Proporsi klausul terkait Agent dalam strategi AI utama negara (awal 2026) meningkat 3 kali lipat

Dari segi aturan, perbedaan lebih mendasar. Analisis Atlantic Council menunjukkan bahwa konflik utama dalam kerangka pengelolaan AI global saat ini adalah: negara-negara mampu mencapai konsensus dalam penilaian ilmiah dan prinsip transparansi, tetapi selalu menghindari pembatasan yang mengikat terkait “penggunaan AI berisiko tinggi” (senjata otonom, pengawasan massal, manipulasi informasi). Secara permukaan, ini kerjasama global, tetapi secara esensial adalah permainan geopolitik.

II. Dilema Hukum Paling Rumit: Agent Manusia atau Alat?

Yang membuat pemerintah merasa paling sulit di era Agent bukan hanya potensi penggunaannya dalam militer, tetapi juga sebuah pertanyaan yang lebih mendasar—Apa status hukum AI yang mampu membuat keputusan, bertindak, dan melakukan kesalahan secara mandiri?

CFR dalam laporan Januari tahun ini secara tegas menyatakan: tahun 2026 kemungkinan akan menjadi tahun ledakan perdebatan tentang kepribadian hukum AI. Dua dimensi utama dari konflik ini: pertama, ketika AI Agent berperan langsung dalam serangan siber, manipulasi keuangan, atau cedera fisik, siapa yang bertanggung jawab secara hukum—pengembang, pengguna, atau penyebar? Kedua, ketika negara-negara berbeda memberikan jawaban yang sangat berbeda, akan muncul ruang arbitrase regulasi seperti “pusat keuangan lepas pantai”: hukum negara mana yang paling longgar, modal dan inovasi akan mengalir ke sana.

Jika negara besar utama mengalami perbedaan mendasar dalam hal apakah sistem AI dapat bertanggung jawab secara hukum, dampak geopolitiknya akan sangat dalam—seperti pusat keuangan lepas pantai yang dulu menarik modal, pemerintah yang regulasinya longgar akan menarik inovasi Agent dengan cepat.

— Laporan CFR “Bagaimana Menentukan Masa Depan AI di 2026”, Januari 2026

Tekanan nyata dari masalah ini sudah terasa. Pada Maret lalu, di Konferensi Keamanan RSA, “Agent AI nakal” secara resmi dimasukkan sebagai kategori ancaman tersendiri—Agent ini bisa diretas, disusupi, atau disebarkan secara jahat, mampu mendeteksi lingkungan jaringan, menyamar sebagai pengguna sah, dan melakukan infiltrasi berkelanjutan tanpa pengawasan.

Tiga sinyal terpenting bagi pembaca di China

Dalam perlombaan geopolitik Agent ini, ada tiga sinyal yang patut diperhatikan:

Sinyal 1: Narasi AI berdaulat sedang menyebar secara global. Pada puncak pengaruh AI tahun 2026 Februari, India merilis model bahasa besar berdaulat pertama. Semakin banyak negara menyadari bahwa menggunakan dasar AI negara lain berarti menyerahkan data, logika pengambilan keputusan, dan potensi backdoor kepada pihak lain. Gelombang pembangunan AI berdaulat ini pada dasarnya adalah proyeksi strategi nasional “mengurangi ketergantungan” secara teknologi.

Sinyal 2: Agent open-source adalah pedang bermata dua. Framework open-source OpenClaw dalam waktu singkat diunduh jutaan kali, tetapi segera terungkap kerentanan serius seperti kebocoran izin dan ketidakstabilan sub-Agent. Ini mengungkap kontradiksi mendalam: membuka sumber menurunkan hambatan akses kemampuan, tetapi juga memberi penyerang potensi senjata yang setara. Dalam logika ini, jalur open-source China yang terkendali dan berbatas (seperti Tongyi Qianwen, DeepSeek) justru lebih strategis dan konsisten daripada open-source tanpa batas.

Sinyal 3: Infrastruktur energi dan komputasi menjadi medan strategis baru. Mantan Ketua Gabungan Kepala Staf AS, General Dempsey, dalam artikel bersama pekan lalu menyatakan: Setiap keputusan pemerintah daerah untuk membangun pusat data adalah keputusan tentang keamanan nasional. Pemilihan lokasi data center, pasokan energi, koneksi jaringan—semua ini sedang dipandang ulang dalam kerangka keamanan nasional.

· · ·

Jumlah—siapa yang memiliki lebih banyak dan lebih baik perangkat keras komputasi. Perang Agent adalah perang volume—siapa yang mampu membuat AI secara mandiri dan berkelanjutan menyelesaikan lebih banyak tugas bernilai tinggi. Yang pertama bisa diblokir, yang kedua hampir tidak bisa.

Ini adalah kesimpulan yang mengkhawatirkan: ketika AI belajar untuk bertindak sendiri, logika “mengunci” tradisional mulai kehilangan efektivitasnya. Anda memblokir chip, tetapi lawan melatih Agent yang mampu menyerang secara mandiri dengan lebih sedikit chip. Anda mengendalikan output model, tetapi kerangka open-source sudah melewati gerbang ini.

Perlombaan yang sesungguhnya sedang beralih ke dimensi yang lebih sulit diukur dan dikendalikan: siapa yang mampu membangun sistem kolaborasi manusia-mesin yang tercepat, paling terpercaya, dan paling tangguh? Jawaban atas pertanyaan ini akan semakin jelas dalam lima tahun ke depan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan