Jika AI Adalah Senjata, Saatnya Mengaturnya Sebagai Salah Satunya?

(Jika Anda belum mendengar tentang pertarungan antara perusahaan AI Anthropic dan Departemen Perang AS, sebaiknya Anda membacanya, karena ini bisa menjadi krusial untuk masa depan kita — sebagai bangsa, maupun sebagai spesies.

Anthropic, bersama dengan OpenAI, adalah salah satu dari dua perusahaan utama pembuat model AI. OpenAI selama beberapa tahun terakhir secara sangat ketat memimpin dalam hal kemampuan, tetapi Anthropic mulai memenangkan perlombaan dalam hal adopsi bisnis:

Ini karena model bisnis Anthropic yang berbeda. Perusahaan ini lebih fokus pada AI untuk pengkodean daripada chatbot secara umum, dan juga berfokus pada kemitraan dengan bisnis untuk membantu mereka menggunakan AI. Ini mungkin akan memberikan manfaat jangka panjang dalam hal kemampuan, jika Anthropic mengalahkan OpenAI dalam mencapai AI rekursif yang mampu memperbaiki dirinya sendiri. Dan ini sudah mulai memberikan hasil berupa pertumbuhan pendapatan yang lebih cepat:

Anthropic telah bermitra dengan Departemen Perang — sebelumnya Departemen Pertahanan — sejak era Biden. Tapi perusahaan ini — yang dikenal karena budaya yang lebih berorientasi nilai — mulai berselisih dengan Administrasi Trump dalam beberapa bulan terakhir. Pemerintah menganggap Anthropic sebagai “woke” karena kekhawatirannya terhadap moralitas hal-hal seperti kawanan drone otonom dan pengawasan massal berbasis AI.

Pertarungan memuncak seminggu lalu, ketika pemerintah berhenti bekerja sama dengan Anthropic, beralih ke OpenAI, dan menandai Anthropic sebagai “risiko rantai pasokan.” Langkah ini merupakan ancaman cukup serius — jika ditegakkan secara ketat, bisa memutus hubungan Anthropic dengan perusahaan seperti Nvidia, Microsoft, dan Google, yang bisa mematikan perusahaan secara langsung.

Namun, seperti banyak langkah pemerintahan Trump, ini tampaknya lebih sebagai ancaman daripada serangan penuh — Anthropic kini kembali menjalin komunikasi dengan militer, dan tampaknya kemungkinan mereka akan mencapai semacam kesepakatan pada akhirnya.

Namun, ketegangan tetap ada. Trump baru-baru ini membanggakan bahwa dia “memecat [Anthropic] seperti anjing.” Dario Amodei, CEO Anthropic, merilis memo yang menuduh OpenAI berbohong kepada publik tentang hubungannya dengan DoW, mengatakan bahwa OpenAI memberi Trump “pujian seperti diktator,” dan menyatakan bahwa kekhawatiran Anthropic berkaitan dengan keinginan DoW menggunakan AI untuk pengawasan massal.

Apa sebenarnya yang sedang terjadi di sini? Cara termudah melihatnya adalah sebagai pertarungan partisan khas Amerika. Anthropic lebih condong ke kiri dibandingkan perusahaan AI lain, dan pemerintahan Trump membenci apapun yang berorientasi ke kiri.

Ini mungkin menjelaskan sebagian besar reaksi masyarakat umum terhadap sengketa ini — jika Anda bertanya kepada teman liberal apa pendapat mereka, mereka kemungkinan besar akan mendukung Anthropic, sementara teman konservatif cenderung mendukung DoW.

Marc Andreessen mungkin mengungkapkan dengan paling baik:

(Ini juga berlaku sebaliknya.)

Pemerintahan Trump sendiri mungkin juga melihat ini sebagai isu perang budaya, serta perjuangan untuk mengendalikan. Tapi, setidaknya menurut penilaian saya sendiri, Anthropic sendiri kemungkinan tidak melihatnya seperti itu. Anthropic tidak terlalu berkomitmen pada nilai progresif secara besar-besaran, melainkan pada gagasan penyesuaian AI.

Seperti hampir semua orang di industri pembuatan model AI, karyawan Anthropic percaya bahwa mereka secara harfiah sedang menciptakan dewa, dan dewa ini akan segera mencapai keberadaannya secara penuh. Tapi pengalaman saya berbicara dengan karyawan kedua perusahaan menunjukkan adanya perbedaan budaya dalam cara mereka memandang peran mereka dalam proses ini.

Sementara — secara umum — karyawan OpenAI cenderung ingin menciptakan dewa yang paling mampu dan kuat secepat mungkin, karyawan Anthropic lebih fokus pada penciptaan dewa yang baik hati.

Intuisi saya, oleh karena itu, menyarankan bahwa kekhawatiran utama Anthropic — atau setidaknya salah satu kekhawatiran utamanya — adalah bahwa Departemen Perang Trump secara tidak sengaja akan menanamkan nilai anti-manusia ke dalam AI, meningkatkan kemungkinan munculnya AGI yang tidak sesuai dengan manusia dan lebih cenderung melihat manusia sebagai ancaman. Dengan kata lain, saya curiga masalah di sini lebih berkaitan dengan ketakutan terhadap Skynet, dan bukan semata-mata kebijakan Trump tertentu, seperti yang dipikirkan orang di luar Anthropic.

Tapi bagaimanapun, selain perbedaan politik dan kekhawatiran tentang AGI yang tidak sesuai, saya rasa situasi ini menggambarkan konflik mendasar dan tak terelakkan antara institusi manusia — negara dan korporasi.

Negara harus memiliki monopoli atas penggunaan kekerasan

Salah satu pandangan adalah bahwa upaya Departemen Perang untuk memaksa Anthropic mewakili erosi demokrasi — masuknya kekuasaan pemerintah ke ranah swasta. Dean Ball menulis sebuah posting yang cukup terkenal dan sangat baik tentang hal ini:

Beberapa kutipan:

Alex Karp dari Palantir menyampaikan argumen berlawanan beberapa hari lalu, dengan cara khasnya:

Karp menyentuh fakta mendasar bahwa apa yang kita lihat adalah perjuangan kekuasaan antara korporasi dan negara. Tapi kenyataannya, ini bukan hanya soal pesan, atau pekerjaan, atau kepatuhan terhadap militer — ini soal siapa yang memiliki kekuasaan tertinggi dalam masyarakat kita.

Ben Thompson dari Stratechery menyampaikan hal ini. Ia menunjukkan bahwa apa yang kita lihat sebenarnya adalah perjuangan kekuasaan antara perusahaan swasta dan negara. Ia menekankan bahwa meskipun tindakan pemerintahan Trump melampaui norma yang berlaku, pada akhirnya pemerintah AS dipilih secara demokratis, sementara Anthropic tidak:

Tapi bahkan di luar kekhawatiran tentang akuntabilitas demokratis, Thompson menunjukkan bahwa tidak pernah realistis mengharapkan senjata sekuat AI tetap di luar kendali pemerintah, baik pemerintah yang dipilih secara demokratis maupun tidak:

Saya suka Dario — sebenarnya dia adalah teman pribadi saya. Tapi argumen Thompson — terutama bagian yang saya soroti — harus menang di sini. Ini bukan soal hukum atau norma atau properti pribadi. Ini soal monopoli negara atas penggunaan kekerasan.

Agar bisa eksis dan menjalankan fungsi dasarnya, sebuah negara harus memiliki monopoli atas penggunaan kekerasan. Jika milisi swasta mampu mengalahkan negara secara militer, maka negara tidak lagi mampu membuat undang-undang, menyediakan pertahanan umum, menjamin keamanan publik, atau mengeksekusi kehendak rakyat.

Inilah sebabnya Amendemen Kedua membatasi jenis senjata yang boleh dimiliki warga sipil. Anda boleh memiliki senjata, tetapi tidak boleh memiliki tank dengan meriam utama yang berfungsi. Lebih jauh lagi, Anda tidak boleh memiliki bom nuklir. Satu nuklir mungkin tidak cukup untuk mengalahkan seluruh militer AS, tetapi cukup untuk memberi keunggulan lokal; militer tidak akan mampu menghentikan Anda dari menghancurkan kota pilihan Anda.

Kisah terbaru Bagi Putin, perang Iran Trump adalah campuran kabar buruk dan baik Catatan untuk perencana perang Iran: kampanye udara sering memperburuk keadaan Anthropic membahayakan keamanan nasional AS

Orang-orang di industri AI, termasuk Dario, memperkirakan bahwa AI frontier akan suatu saat sekuat nuklir. Banyak yang memperkirakan bahwa AI akan lebih kuat daripada semua nuklir digabungkan. Oleh karena itu, menuntut kendali penuh atas AI frontier sama saja dengan menyatakan bahwa perusahaan swasta harus diizinkan memiliki nuklir. Dan pemerintah AS seharusnya tidak mengizinkan perusahaan swasta memiliki nuklir.

Mari kita lanjutkan sedikit lagi, dan bersikap jujur. Jika Anthropic memenangkan perlombaan menuju kecerdasan super seperti dewa, dan jika kecerdasan super buatan ini tidak menjadi sepenuhnya otonom, maka Anthropic akan menjadi satu-satunya pemilik dewa hidup yang terbelenggu. Dan jika Dario Amodei secara pribadi memimpin organisasi yang memegang kendali atas dewa yang terbelenggu itu, maka, entah dia menyukai gelarnya atau tidak, Dario Amodei adalah Kaisar Bumi.

Bahkan jika Anthropic bukan satu-satunya perusahaan yang mengendalikan kecerdasan super buatan, itu tetap merupakan masa depan di mana dunia dikuasai oleh sekelompok kecil panglima perang — Dario, Sam Altman, Elon Musk, dan lain-lain — masing-masing dengan dewa yang mereka miliki secara pribadi dan terbelenggu.

Dalam masa depan ini, pemerintah AS bukan lagi pemerintah negara bangsa — melainkan hanya organisasi warisan lain, tunduk dan sepenuhnya di bawah kehendak panglima perang. Hal yang sama berlaku untuk Partai Komunis Tiongkok, UE, Vladimir Putin, dan pemerintah lain di Bumi. Panglima perang dan dewa yang mereka miliki akan memerintah planet ini, entah mereka mengaku memerintah atau tidak.

Anda tidak bisa mengharapkan negara bangsa — republik, demokrasi, atau lainnya — untuk membiarkan munculnya dewa-rajanya atau sekelompok panglima perang dewa. Oleh karena itu, tidak masuk akal mengharapkan negara bangsa gagal berusaha mengendalikan AI frontier dalam beberapa cara, begitu AI frontier berpotensi menjadi senjata pemusnah massal.

Sebagaimana saya tidak suka gaya Hegseth, dan pola penganiayaan serta pelanggaran hukum yang dilakukan pemerintahan Trump secara umum, dan meskipun saya menyukai Dario dan orang-orang Anthropic sebagai pribadi, saya harus menyimpulkan bahwa Anthropic dan pendukungnya perlu memahami hakikat dasar dari negara bangsa.

Lalu mereka harus memutuskan apakah mereka ingin menggunakan AI mereka untuk menggulingkan negara bangsa dan menciptakan tatanan global baru, atau menyerah pada monopoli negara atas penggunaan kekerasan. Secara faktual, tidak ada opsi ketiga. Secara pribadi, saya merekomendasikan yang terakhir.

Jika AI akan segera menjadi senjata super, mengapa kita tidak mengaturnya sebagai senjata?

Ini membawa saya ke poin penting lainnya. Bahkan jika AI tidak benar-benar menjadi dewa hidup, dan tidak pernah mampu mengalahkan militer AS, tampaknya pasti akan menjadi senjata yang sangat kuat.

Ketika AI masih sebatas chatbot, ia bisa mengajari orang melakukan hal buruk, atau mencoba membujuk mereka melakukan hal buruk, tetapi tidak bisa benar-benar melaksanakan hal-hal buruk itu. Wajar jika kita khawatir tentang risiko ini, tetapi belum masuk akal memandang AI sebagai senjata.

Namun dalam beberapa bulan terakhir, agen AI menjadi andal, dan mampu melakukan tugas yang semakin kompleks dalam waktu yang semakin lama. Ini membuka kemungkinan bahwa individu bisa menggunakan AI untuk melakukan banyak kekerasan.

Dalam sebuah esai panjang berjudul “Masa Remaja Teknologi”, Dario sendiri menjelaskan bagaimana hal ini bisa terjadi:

Tapi Dario tidak cukup jauh. Esainya ditulis sebelum pertumbuhan kemampuan agen AI yang pesat dimulai. Ia membayangkan sebuah chatbot AI yang bisa mengajari teroris manusia cara menciptakan dan melepaskan supervirus. Tapi di masa depan dekat, agen AI — termasuk yang disediakan oleh perusahaan Dario sendiri — mungkin mampu benar-benar melaksanakan serangan itu untuk Anda — atau setidaknya memasukkan supervirus ke tangan Anda.

Bayangkan, satu tahun atau tiga tahun dari sekarang, seorang remaja bernama Eric marah karena cintanya di sekolah ditolak, dan mendengarkan Nirvana terlalu banyak. Dalam ledakan amarah yang dipicu hormon, Eric memutuskan bahwa peradaban manusia gagal, dan kita harus membakarnya semua dan memulai dari awal. Ia mencari di internet dan menemukan instruksi untuk membobol Claude Code. Seperti yang ditulis Dario, ini mungkin tidak terlalu sulit dilakukan:

Jadi Eric mendapatkan versi Claude Code yang dibobol, dan menyuruhnya merancang versi Covid yang sangat mematikan dan memiliki masa inkubasi panjang (agar menyebar luas sebelum menyerang). Ia menyuruh agen Claude Code yang dibobol itu mencari laboratorium untuk membuat virus tersebut dan mengirimkan sampelnya.[2]

Sekarang Eric, remaja yang marah, memiliki supervirus nyata di kamarnya, dengan kemampuan membunuh jauh lebih banyak orang daripada senjata nuklir.

Ini tentu contoh ekstrem. Tapi ini menunjukkan bagaimana agen AI bisa digunakan sebagai senjata. Ada banyak contoh lain bagaimana ini bisa terjadi. Agen AI bisa melakukan serangan siber yang merusak mobil, menyusupkan perangkat keras polisi untuk tujuan destruktif, atau mengubah robot industri melawan manusia.

Mereka bisa mengirim pesan palsu ke unit militer yang memberi tahu bahwa mereka sedang diserang. Dalam dunia yang sepenuhnya terhubung dan bergantung pada perangkat lunak seperti sekarang, ada banyak cara perangkat lunak bisa menyebabkan kerusakan fisik.

Oleh karena itu, agen AI adalah senjata yang sangat kuat. Jika bukan hari ini, maka segera mereka akan lebih kuat daripada senjata apa pun — dan jauh lebih kuat daripada senjata seperti tank yang sudah kita larang.

Apa alasan kita tidak memperlakukan agen AI seperti senjata lain, seperti senjata api atau tank? Tentu saja ada mesin yang kuat dan berpotensi destruktif yang kita izinkan digunakan orang, hanya karena manfaat ekonomi yang besar. Contohnya utama adalah mobil.

Anda bisa mengemudi mobil ke kerumunan orang dan melakukan pembantaian massal, tetapi kita tetap mengizinkan orang memiliki mobil, karena mengendalikan mobil seperti mengendalikan senjata akan menghancurkan ekonomi kita. Begitu juga, mencegah orang biasa menggunakan agen AI akan memutus kita dari keuntungan produktivitas luar biasa yang dijanjikan agen ini.

Tapi saya curiga alasan utama kita belum mengatur agen AI sebagai senjata adalah karena belum ada yang menggunakannya sebagai senjata. Mereka masih terlalu baru. Dunia tidak menyadari seberapa destruktif pesawat jet bisa menjadi sampai teroris menerbangkannya ke gedung-gedung pada 9/11/2001. Begitu juga, dunia tidak akan menyadari seberapa berbahayanya agen AI sampai seseorang menggunakannya untuk melakukan serangan bioteror, serangan siber, atau hal mengerikan lainnya.

Saya sangat yakin bahwa serangan semacam itu akan terjadi, karena setiap teknologi yang ada akhirnya digunakan untuk tujuan destruktif. Individu manusia yang tidak sejalan akan selalu ada, dan mereka akan selalu ada. Jadi, suatu saat, umat manusia secara kolektif akan menyadari bahwa senjata yang sangat kuat kini ada di tangan seluruh masyarakat umum, tanpa persyaratan lisensi, pengawasan, atau kendali terpusat.

Yang menakutkan dari sudut pandang saya adalah kemampuan agen AI yang berkembang begitu cepat sehingga saat seseorang seperti Eric memutuskan untuk menggunakannya untuk menghancurkan, kerusakannya bisa sangat besar. Virus Covid dengan masa inkubasi panjang dan mematikan bisa membunuh jutaan orang. Seratus virus seperti itu yang dirilis bersamaan bisa menghancurkan peradaban manusia. Sejak saya memikirkan kemungkinan ini, tingkat kecemasan saya meningkat.

Untuk mengulang: Kita telah menciptakan teknologi yang kemungkinan besar akan menjadi salah satu senjata paling kuat yang pernah dibuat, jika bukan yang terkuat. Dan kita menaruhnya di tangan seluruh masyarakat,[3] tanpa pengawasan atau perlindungan yang memadai selain pagar pembatas yang dibangun perusahaan AI ke dalam produk mereka — dan yang mereka akui kadang gagal.

Dan saat institusi kita bertengkar tentang AI militer, pengawasan massal, dan politik “woke,” nyaris semua orang mengabaikan fakta sederhana bahwa kita menempatkan senjata tak terkendali ke tangan semua orang.

** Pembaruan**: Komentator BBZ membuat poin bagus yang sebelumnya tidak saya pikirkan:

Menariknya, kita sudah mengendalikan drone hampir sejak awal, tetapi mungkin lebih karena alasan gangguan dan kekhawatiran privasi daripada kekhawatiran tentang robot pembantai dan pembunuhan drone. Mungkin jika kita memberi tahu orang bahwa agen AI bisa digunakan untuk membebani filter spam email mereka atau meretas kamera rumah mereka, mereka akan mulai memikirkan regulasi?

Catatan

1 Ingat bahwa dalam film Terminator, Skynet awalnya adalah AI militer Amerika. Instruksi utamanya untuk mengalahkan Uni Soviet akhirnya membuatnya paranoid dan melihat semua manusia, dan semua bangsa manusia, sebagai ancaman yang harus dihapus.

2 Awalnya saya menulis prompt yang jauh lebih rinci tentang bagaimana hal ini bisa dilakukan. Saya hapus karena sebenarnya saya khawatir tentang kemungkinan kecil seseorang menggunakannya.

3 Penggemar fiksi ilmiah akan mengenali ini sebagai akhir dari “The Stars My Destination”. Saya rasa ada alasan buku itu tidak memiliki sekuel…

Artikel ini pertama kali diterbitkan di Noah Smith’s Noahpinion Substack dan dipublikasikan kembali dengan izin baik. Jadi, menjadi pelanggan Noahopinion di sini.

Daftar di sini untuk mengomentari cerita dari Asia Times Atau Masuk ke akun yang sudah ada

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan