Para peneliti AI memperingatkan bahaya saat mereka meninggalkan ruangan

Para peneliti AI memperingatkan bahaya saat mereka meninggalkan pintu keluar

Analisis oleh Allison Morrow, CNN

Rabu, 18 Februari 2026 pukul 22:21 GMT+9 5 menit baca

Sejumlah staf AI terkenal memutuskan untuk berhenti, dengan beberapa secara eksplisit memperingatkan bahwa perusahaan tempat mereka bekerja bergerak terlalu cepat dan meremehkan kekurangan teknologi tersebut. - d3sign/Moment RF/Getty Images

_Sebuah versi cerita ini muncul di buletin Nightcap CNN Business. Untuk menerimanya di kotak masuk Anda, daftar gratis _di sini.

“Dunia dalam bahaya,” peringatan mantan kepala tim Penelitian Pengamanan Anthropic saat dia meninggalkan perusahaan. Seorang peneliti dari OpenAI, yang juga akan keluar, mengatakan bahwa teknologi ini memiliki “potensi untuk memanipulasi pengguna dengan cara yang kita tidak memiliki alat untuk memahami, apalagi mencegahnya.”

Mereka adalah bagian dari gelombang peneliti dan eksekutif kecerdasan buatan yang tidak hanya meninggalkan pemberi kerja mereka — mereka secara keras membunyikan alarm saat keluar, menarik perhatian pada apa yang mereka anggap sebagai tanda bahaya merah.

Meskipun Silicon Valley dikenal karena tingkat pergantian karyawan yang tinggi, pergantian terbaru ini datang saat pemimpin pasar seperti OpenAI dan Anthropic berlomba menuju IPO yang dapat mempercepat pertumbuhan mereka sekaligus mengundang pengawasan ketat terhadap operasi mereka.

Dalam beberapa hari terakhir, sejumlah staf AI terkenal memutuskan untuk berhenti, dengan beberapa secara eksplisit memperingatkan bahwa perusahaan tempat mereka bekerja bergerak terlalu cepat dan meremehkan kekurangan teknologi tersebut.

Zoë Hitzig, seorang peneliti di OpenAI selama dua tahun terakhir, mengumumkan pengunduran dirinya pada hari Rabu dalam sebuah esai di The New York Times, dengan menyebutkan “keraguan mendalam” tentang strategi iklan yang sedang berkembang dari OpenAI. Hitzig, yang memperingatkan tentang potensi ChatGPT untuk memanipulasi pengguna, mengatakan bahwa arsip data pengguna chatbot tersebut, yang dibangun berdasarkan “ketakutan medis, masalah hubungan mereka, kepercayaan mereka tentang Tuhan dan kehidupan setelah mati,” menghadirkan dilema etika karena orang percaya mereka sedang mengobrol dengan sebuah program yang tidak memiliki motif tersembunyi.

Kritik Hitzig muncul saat situs berita teknologi Platformer melaporkan bahwa OpenAI membubarkan tim “penyesuaian misi,” yang dibentuk pada 2024 untuk mempromosikan tujuan perusahaan memastikan seluruh umat manusia mendapatkan manfaat dari pencarian “kecerdasan umum buatan” — sebuah AI hipotetis yang mampu berpikir setara manusia.

OpenAI tidak segera menanggapi permintaan komentar.

Kepala tim Penelitian Pengamanan Anthropic mengatakan bahwa “sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita.” - Gabby Jones/Bloomberg/Getty Images

Juga minggu ini, Mrinank Sharma, kepala tim Penelitian Pengamanan Anthropic, memposting surat misterius Selasa yang mengumumkan keputusannya untuk meninggalkan perusahaan dan memperingatkan bahwa “dunia dalam bahaya.”

Surat Sharma hanya menyebutkan secara samar tentang Anthropic, perusahaan di balik chatbot Claude. Dia tidak mengatakan mengapa dia pergi tetapi mencatat bahwa “saya merasa bahwa saatnya untuk melangkah telah tiba” dan bahwa “sepanjang waktu saya di sini, saya berulang kali melihat betapa sulitnya benar-benar membiarkan nilai-nilai kita mengatur tindakan kita.”

Anthropic mengatakan kepada CNN dalam sebuah pernyataan bahwa mereka berterima kasih atas pekerjaan Sharma dalam memajukan penelitian keamanan AI. Perusahaan mencatat bahwa dia bukan kepala keamanan maupun bertanggung jawab atas perlindungan yang lebih luas di perusahaan.

Cerita Berlanjut  

Sementara itu, di xAI, dua pendiri keluar dalam waktu 24 jam minggu ini, mengumumkan kepergian mereka di X. Itu meninggalkan hanya setengah dari pendiri xAI yang tersisa di perusahaan, yang sedang bergabung dengan SpaceX milik Elon Musk untuk menciptakan perusahaan swasta paling berharga di dunia. Setidaknya lima staf xAI lainnya telah mengumumkan kepergian mereka di media sosial selama minggu lalu.

Tidak segera jelas mengapa pendiri xAI terbaru meninggalkan, dan xAI tidak menanggapi permintaan komentar. Dalam posting media sosial hari Rabu, Musk mengatakan bahwa xAI “dianalisis ulang” untuk mempercepat pertumbuhan, yang “sayangnya membutuhkan perpisahan dengan beberapa orang.”

Meskipun tidak jarang bagi talenta tingkat tinggi untuk berpindah-pindah di industri yang sedang berkembang seperti AI, skala kepergian dalam waktu singkat di xAI menonjol.

Startup ini menghadapi reaksi keras global terhadap chatbot Grok-nya, yang diizinkan menghasilkan gambar pornografi non-konsensual dari wanita dan anak-anak selama berminggu-minggu sebelum tim turun tangan untuk menghentikannya. Grok juga cenderung menghasilkan komentar antisemitik sebagai respons terhadap permintaan pengguna.

Kepergian lain baru-baru ini menyoroti ketegangan antara beberapa peneliti yang khawatir tentang keamanan dan eksekutif puncak yang bersemangat menghasilkan pendapatan.

Pada hari Selasa, The Wall Street Journal melaporkan bahwa OpenAI memecat salah satu eksekutif keamanan teratasnya setelah dia menyuarakan penolakan terhadap peluncuran “mode dewasa” yang memungkinkan konten pornografi di ChatGPT. OpenAI memecat eksekutif keamanan, Ryan Beiermeister, dengan alasan dia mendiskriminasi terhadap seorang karyawan pria — tuduhan yang dikatakan Beiermeister kepada Journal adalah “sangat salah.”

Seorang peneliti di OpenAI mengumumkan pengunduran dirinya pada hari Rabu, dengan menyebutkan “keraguan mendalam” tentang strategi iklan yang sedang berkembang dari OpenAI. - Jaap Arriens/NurPhoto/Shutterstock

OpenAI mengatakan kepada Journal bahwa pemecatannya tidak terkait dengan “masalah apa pun yang dia angkat selama bekerja di perusahaan.”

Perpindahan tingkat tinggi telah menjadi bagian dari cerita AI sejak ChatGPT diluncurkan pada akhir 2022. Tidak lama kemudian, Geoffrey Hinton, yang dikenal sebagai “Godfather of AI,” meninggalkan perannya di Google dan mulai mengedepankan apa yang dia lihat sebagai risiko eksistensial yang ditimbulkan AI, termasuk gangguan ekonomi besar-besaran di dunia di mana banyak orang “tidak akan mampu mengetahui apa yang benar lagi.”

Ramalan kiamat melimpah – termasuk di antara eksekutif AI yang memiliki insentif keuangan untuk membesar-besarkan kekuatan produk mereka sendiri. Salah satu prediksi itu menjadi viral minggu ini, dengan CEO HyperWrite Matt Shumer memposting sebuah tulisan hampir 5.000 kata tentang bagaimana model AI terbaru telah membuat beberapa pekerjaan teknologi menjadi usang.

“Kami memberi tahu Anda apa yang sudah terjadi dalam pekerjaan kami sendiri,” tulisnya, “dan memperingatkan Anda bahwa Anda berikutnya.”

Untuk berita dan buletin CNN lainnya, buat akun di CNN.com

Syarat dan Kebijakan Privasi

Dasbor Privasi

Info Lebih Lanjut

XAI-0,3%
GROK-1,47%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan