Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Anthropic, OpenAI Kurangi Penggunaan Bahasa Keamanan Saat Perlombaan AI Meningkat
Anthropic, OpenAI Mundur dari Bahasa Keamanan Saat Perlombaan AI Mempercepat
Jason Nelson
Kamis, 26 Februari 2026 pukul 10:41 AM GMT+9 4 menit baca
Dalam artikel ini:
GOOG
+0,68%
Anthropic telah menghapus janji keselamatan yang menjadi pusat dari Kebijakan Penskalaan Bertanggung Jawabnya, menurut laporan dari TIME. Perubahan ini melonggarkan komitmen yang sebelumnya melarang pengembang AI Claude dari melatih sistem AI canggih tanpa adanya jaminan perlindungan yang diterapkan.
Langkah ini mengubah bagaimana perusahaan memposisikan dirinya dalam perlombaan AI melawan para pesaingnya OpenAI, Google, dan xAI. Anthropic telah lama menjadikan dirinya sebagai salah satu laboratorium yang paling fokus pada keselamatan di industri, tetapi di bawah kebijakan yang direvisi, Anthropic tidak lagi berjanji untuk menghentikan pelatihan jika mitigasi risiko tidak sepenuhnya diterapkan.
“Kami merasa bahwa sebenarnya tidak akan membantu siapa pun jika kami menghentikan pelatihan model AI,” kata kepala petugas ilmiah Anthropic, Jared Kaplan, kepada TIME. “Kami tidak benar-benar merasa, dengan kemajuan cepat AI, bahwa masuk akal bagi kami untuk membuat komitmen sepihak … jika pesaing sedang melesat maju.”
Perubahan ini terjadi saat Anthropic terlibat dalam perselisihan publik dengan Menteri Pertahanan AS Pete Hegseth karena menolak memberikan akses penuh kepada Pentagon untuk Claude, menjadikannya satu-satunya laboratorium AI besar di antara Google, xAI, Meta, dan OpenAI yang mengambil sikap tersebut.
Edward Geist, seorang peneliti kebijakan senior di RAND Corporation, mengatakan bahwa penggambaran “keamanan AI” yang lebih awal muncul dari komunitas intelektual tertentu yang mendahului model bahasa besar saat ini.
“Beberapa tahun yang lalu, ada bidang keamanan AI,” kata Geist kepada Decrypt. “Keamanan AI terkait dengan seperangkat pandangan tertentu yang muncul dari komunitas orang-orang yang peduli tentang AI yang kuat sebelum kita memiliki LLM ini.”
Geist mengatakan bahwa para advokat keamanan AI awal bekerja dari visi yang sangat berbeda tentang seperti apa kecerdasan buatan canggih itu.
Perdana Menteri Inggris Mencari Kekuatan Baru untuk Mengatur Chatbot AI Saat Kekhawatiran Keamanan Anak Meningkat
“Mereka akhirnya mengonseptualisasikan masalah dengan cara yang, dalam beberapa hal, membayangkan sesuatu yang berbeda secara kualitatif dari LLM saat ini, entah itu lebih baik atau lebih buruk,” kata Geist.
Geist mengatakan bahwa perubahan bahasa ini juga mengirimkan sinyal kepada investor dan pembuat kebijakan.
“Sebagian dari ini adalah memberi sinyal kepada berbagai konstituen bahwa banyak dari perusahaan ini ingin memberikan kesan bahwa mereka tidak menahan diri dalam kompetisi ekonomi karena kekhawatiran tentang ‘keamanan AI,’” katanya, menambahkan bahwa terminologi itu sendiri berubah untuk menyesuaikan dengan zaman.
Anthropic tidak sendirian dalam merevisi bahasa keselamatannya.
Apa yang Mendefinisikan Keamanan AI?
Laporan terbaru oleh organisasi berita nirlaba, The Conversation, mencatat bagaimana OpenAI juga mengubah pernyataan misinya dalam pengajuan IRS 2024, menghapus kata “dengan aman.”
Pernyataan sebelumnya dari perusahaan tersebut berjanji untuk membangun AI tujuan umum yang “menguntungkan umat manusia dengan aman, tanpa terikat pada kebutuhan untuk menghasilkan pengembalian finansial.” Versi yang diperbarui sekarang menyatakan bahwa tujuannya adalah “untuk memastikan bahwa kecerdasan umum buatan memberikan manfaat bagi seluruh umat manusia.”
“Masalah dengan istilah keamanan AI adalah bahwa tidak ada yang tampaknya tahu apa artinya itu secara tepat,” kata Geist. “Namun, istilah keamanan AI juga diperdebatkan.”
Kebijakan baru Anthropic menekankan langkah-langkah transparansi seperti menerbitkan “peta jalan keselamatan perbatasan” dan “laporan risiko” secara berkala, dan menyatakan bahwa mereka akan menunda pengembangan jika mereka percaya ada risiko bencana yang signifikan.
Perubahan kebijakan Anthropic dan OpenAI terjadi saat perusahaan-perusahaan tersebut berusaha untuk memperkuat posisi komersial mereka.
Asisten AI Sumber Terbuka yang Cepat Berkembang Clawdbot Menguji Batas Otomatisasi—dan Keselamatan
Awal bulan ini, Anthropic mengatakan telah mengumpulkan $30 miliar dengan valuasi sekitar $380 miliar. Pada saat yang sama, OpenAI sedang menyelesaikan putaran pendanaan yang didukung oleh Amazon, Microsoft, dan Nvidia yang dapat mencapai $100 miliar.
Anthropic dan OpenAI, bersama dengan Google dan xAI, telah dianugerahi kontrak pemerintah yang menguntungkan dengan Departemen Pertahanan AS. Namun, untuk Anthropic, kontrak tersebut tampaknya diragukan karena Pentagon mempertimbangkan untuk memutuskan hubungan dengan perusahaan AI tersebut atas keluhan akses.
Saat modal mengalir ke sektor ini dan persaingan geopolitik semakin intens, Hamza Chaudhry, Pemimpin AI dan Keamanan Nasional di Future of Life Institute, mengatakan bahwa perubahan kebijakan mencerminkan dinamika politik yang berubah daripada usaha untuk mendapatkan bisnis Pentagon.
“Jika itu kasusnya, mereka akan segera mundur dari apa yang dikatakan Pentagon seminggu yang lalu,” kata Chaudhry kepada Decrypt. “Dario [Amodei] tidak akan muncul untuk bertemu.”
Sebaliknya, Chaudhry mengatakan bahwa penulisan ulang ini mencerminkan titik balik dalam bagaimana perusahaan AI berbicara tentang risiko saat tekanan politik dan taruhan kompetitif meningkat.
“Anthropic sekarang mengatakan, ‘Lihat, kami tidak bisa terus mengatakan keamanan, kami tidak bisa menghentikan secara tidak bersyarat, dan kami akan mendorong untuk regulasi yang jauh lebih ringan,’” katanya.
Syarat dan Kebijakan Privasi
Dasbor Privasi
Info Lebih Lanjut