Saya melihat tren menarik di tengah meningkatnya integrasi AI dalam bidang pertahanan. Pentagon secara serius meningkatkan tekanan pada Anthropic, menuntut akses penuh ke model Claude untuk penggunaan militer. Menurut laporan, Menteri Pertahanan Pit Hegset memberikan ultimatum terakhir kepada perusahaan — setuju dengan syarat Pentagon sebelum akhir minggu atau kehilangan kontrak militer dan mendapatkan status risiko pasokan.



Apa yang sebenarnya diminta Pentagon? Kontrol penuh atas teknologi, penggunaan tanpa batasan (kecuali sesuai hukum), dan kesiapan menerapkan undang-undang produksi pertahanan untuk memaksa kerjasama. Dalam konteks militer, ini terlihat seperti tekanan klasik dari negara terhadap perusahaan swasta.

Tapi yang menarik adalah CEO Anthropic Dario Amodei bersikeras. Perusahaan menegaskan perlindungan, tidak ingin Claude digunakan untuk pengawasan massal, menuntut kontrol manusia dalam pengambilan keputusan akhir tentang target. Amodei khawatir model ini bisa mengalami halusinasi, yang tanpa campur tangan manusia dalam rantai bisa berujung pada kesalahan fatal. Secara logis, memang masuk akal.

Konteksnya bahkan lebih menarik. Ternyata, Claude sudah digunakan oleh militer AS — membantu dalam operasi, termasuk serangan terhadap target tertentu. Ini yang memicu ketegangan situasi.

Sementara Anthropic dan Pentagon bernegosiasi, pesaing tidak diam saja. Pentagon secara aktif memperluas portofolio solusi AI dalam konteks militer. Mengintegrasikan Grok dari xAI ke dalam sistem militer, menandatangani kontrak lebih dari 99 juta dengan TurbineOne untuk solusi offline pengenalan ancaman (dron, posisi musuh), dan bahkan kesepakatan senilai 200 juta dengan OpenAI untuk pengembangan prototipe AI demi keamanan nasional.

Jadi, Anthropic berada dalam posisi yang sulit. Di satu sisi — kontrak besar dan pengaruh dalam konteks militer. Di sisi lain — risiko kerusakan reputasi dan pertanyaan etis. Pertanyaannya, siapa yang akhirnya akan menyerah — negara atau perusahaan yang hingga saat ini mengklaim diri sebagai pendukung AI yang bertanggung jawab.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan