Anthropic, OpenAI Kurangi Penggunaan Bahasa Keamanan Saat Perlombaan AI Meningkat

Anthropic, OpenAI Mundur dari Bahasa Keamanan Saat Perlombaan AI Mempercepat

Jason Nelson

Kamis, 26 Februari 2026 pukul 10:41 AM GMT+9 4 menit baca

Dalam artikel ini:

GOOG

+0,68%

Anthropic telah menghapus janji keselamatan yang menjadi pusat dari Kebijakan Penskalaan Bertanggung Jawabnya, menurut laporan dari TIME. Perubahan ini melonggarkan komitmen yang sebelumnya melarang pengembang AI Claude dari melatih sistem AI canggih tanpa adanya jaminan perlindungan yang diterapkan.

Langkah ini mengubah bagaimana perusahaan memposisikan dirinya dalam perlombaan AI melawan para pesaingnya OpenAI, Google, dan xAI. Anthropic telah lama menjadikan dirinya sebagai salah satu laboratorium yang paling fokus pada keselamatan di industri, tetapi di bawah kebijakan yang direvisi, Anthropic tidak lagi berjanji untuk menghentikan pelatihan jika mitigasi risiko tidak sepenuhnya diterapkan.

“Kami merasa bahwa sebenarnya tidak akan membantu siapa pun jika kami menghentikan pelatihan model AI,” kata kepala petugas ilmiah Anthropic, Jared Kaplan, kepada TIME. “Kami tidak benar-benar merasa, dengan kemajuan cepat AI, bahwa masuk akal bagi kami untuk membuat komitmen sepihak … jika pesaing sedang melesat maju.”

Perubahan ini terjadi saat Anthropic terlibat dalam perselisihan publik dengan Menteri Pertahanan AS Pete Hegseth karena menolak memberikan akses penuh kepada Pentagon untuk Claude, menjadikannya satu-satunya laboratorium AI besar di antara Google, xAI, Meta, dan OpenAI yang mengambil sikap tersebut.

Edward Geist, seorang peneliti kebijakan senior di RAND Corporation, mengatakan bahwa penggambaran “keamanan AI” yang lebih awal muncul dari komunitas intelektual tertentu yang mendahului model bahasa besar saat ini.

“Beberapa tahun yang lalu, ada bidang keamanan AI,” kata Geist kepada Decrypt. “Keamanan AI terkait dengan seperangkat pandangan tertentu yang muncul dari komunitas orang-orang yang peduli tentang AI yang kuat sebelum kita memiliki LLM ini.”

Geist mengatakan bahwa para advokat keamanan AI awal bekerja dari visi yang sangat berbeda tentang seperti apa kecerdasan buatan canggih itu.

Perdana Menteri Inggris Mencari Kekuatan Baru untuk Mengatur Chatbot AI Saat Kekhawatiran Keamanan Anak Meningkat

“Mereka akhirnya mengonseptualisasikan masalah dengan cara yang, dalam beberapa hal, membayangkan sesuatu yang berbeda secara kualitatif dari LLM saat ini, entah itu lebih baik atau lebih buruk,” kata Geist.

Geist mengatakan bahwa perubahan bahasa ini juga mengirimkan sinyal kepada investor dan pembuat kebijakan.

“Sebagian dari ini adalah memberi sinyal kepada berbagai konstituen bahwa banyak dari perusahaan ini ingin memberikan kesan bahwa mereka tidak menahan diri dalam kompetisi ekonomi karena kekhawatiran tentang ‘keamanan AI,’” katanya, menambahkan bahwa terminologi itu sendiri berubah untuk menyesuaikan dengan zaman.

Anthropic tidak sendirian dalam merevisi bahasa keselamatannya.

Apa yang Mendefinisikan Keamanan AI?

Laporan terbaru oleh organisasi berita nirlaba, The Conversation, mencatat bagaimana OpenAI juga mengubah pernyataan misinya dalam pengajuan IRS 2024, menghapus kata “dengan aman.”

Cerita Berlanjut  

Pernyataan sebelumnya dari perusahaan tersebut berjanji untuk membangun AI tujuan umum yang “menguntungkan umat manusia dengan aman, tanpa terikat pada kebutuhan untuk menghasilkan pengembalian finansial.” Versi yang diperbarui sekarang menyatakan bahwa tujuannya adalah “untuk memastikan bahwa kecerdasan umum buatan memberikan manfaat bagi seluruh umat manusia.”

“Masalah dengan istilah keamanan AI adalah bahwa tidak ada yang tampaknya tahu apa artinya itu secara tepat,” kata Geist. “Namun, istilah keamanan AI juga diperdebatkan.”

Kebijakan baru Anthropic menekankan langkah-langkah transparansi seperti menerbitkan “peta jalan keselamatan perbatasan” dan “laporan risiko” secara berkala, dan menyatakan bahwa mereka akan menunda pengembangan jika mereka percaya ada risiko bencana yang signifikan.

Perubahan kebijakan Anthropic dan OpenAI terjadi saat perusahaan-perusahaan tersebut berusaha untuk memperkuat posisi komersial mereka.

Asisten AI Sumber Terbuka yang Cepat Berkembang Clawdbot Menguji Batas Otomatisasi—dan Keselamatan

Awal bulan ini, Anthropic mengatakan telah mengumpulkan $30 miliar dengan valuasi sekitar $380 miliar. Pada saat yang sama, OpenAI sedang menyelesaikan putaran pendanaan yang didukung oleh Amazon, Microsoft, dan Nvidia yang dapat mencapai $100 miliar.

Anthropic dan OpenAI, bersama dengan Google dan xAI, telah dianugerahi kontrak pemerintah yang menguntungkan dengan Departemen Pertahanan AS. Namun, untuk Anthropic, kontrak tersebut tampaknya diragukan karena Pentagon mempertimbangkan untuk memutuskan hubungan dengan perusahaan AI tersebut atas keluhan akses.

Saat modal mengalir ke sektor ini dan persaingan geopolitik semakin intens, Hamza Chaudhry, Pemimpin AI dan Keamanan Nasional di Future of Life Institute, mengatakan bahwa perubahan kebijakan mencerminkan dinamika politik yang berubah daripada usaha untuk mendapatkan bisnis Pentagon.

“Jika itu kasusnya, mereka akan segera mundur dari apa yang dikatakan Pentagon seminggu yang lalu,” kata Chaudhry kepada Decrypt. “Dario [Amodei] tidak akan muncul untuk bertemu.”

Sebaliknya, Chaudhry mengatakan bahwa penulisan ulang ini mencerminkan titik balik dalam bagaimana perusahaan AI berbicara tentang risiko saat tekanan politik dan taruhan kompetitif meningkat.

“Anthropic sekarang mengatakan, ‘Lihat, kami tidak bisa terus mengatakan keamanan, kami tidak bisa menghentikan secara tidak bersyarat, dan kami akan mendorong untuk regulasi yang jauh lebih ringan,’” katanya.

Syarat dan Kebijakan Privasi

Dasbor Privasi

Info Lebih Lanjut

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan