Saya baru saja membaca sesuatu yang membuat saya cukup terkejut. The New Yorker baru saja menerbitkan sebuah penyelidikan besar di mana jurnalis seperti Ronan Farrow memperoleh dokumen internal OpenAI yang mengungkapkan pola yang mengkhawatirkan: tampaknya Sam Altman secara sistematis telah berbohong kepada dewan direksi dan eksekutif tentang masalah keamanan yang kritis.



Titelnya sangat keras. Ilya Sutskever, ilmuwan utama OpenAI, menyusun sebuah dokumen sepanjang 70 halaman beberapa tahun lalu berdasarkan pesan Slack, komunikasi HR, dan notulen rapat. Kesimpulannya di baris pertama: Sam menunjukkan pola konsisten berbohong. Contoh konkret yang muncul dalam penyelidikan: pada Desember 2022, Altman meyakinkan dewan bahwa beberapa fungsi GPT-4 telah melewati tinjauan keamanan. Ketika mereka meminta melihat dokumen persetujuan, mereka menemukan bahwa dua fitur paling kontroversial tidak pernah ditinjau oleh panel keamanan.

Tapi yang benar-benar menarik perhatian saya adalah apa yang ditemukan dalam catatan pribadi Dario Amodei, pendiri Anthropic dan mantan kepala keamanan di OpenAI. Lebih dari 200 halaman yang mendokumentasikan bagaimana perusahaan mundur langkah demi langkah di bawah tekanan komersial. Detail penting: saat Microsoft berinvestasi pada 2019, mereka menegosiasikan klausul 'penggabungan dan bantuan' yang secara hipotetis menjamin bahwa jika pesaing menemukan jalur yang lebih aman menuju AGI, OpenAI harus membantu. Kedengarannya bagus di atas kertas. Masalahnya, Microsoft juga mendapatkan hak veto atas klausul tersebut, yang membuatnya menjadi janji kosong sejak hari penandatanganan.

Ada sesuatu yang terdengar hampir absurd tapi benar-benar nyata: tim 'superalignment' di OpenAI. Altman secara terbuka mengumumkan bahwa mereka akan mengalokasikan 20% dari kapasitas komputasi yang ada untuk meneliti alignment AI, dengan nilai potensial lebih dari satu miliar dolar. Ini adalah pengumuman serius, menyebutkan risiko kepunahan manusia dan segala macamnya. Tapi ketika jurnalis berbicara dengan empat orang yang bekerja di tim itu, kenyataannya berbeda: kapasitas komputasi yang dialokasikan hanya sekitar 1% sampai 2% dari total, dan perangkat kerasnya juga usang. Tim tersebut dibubarkan tanpa menyelesaikan misinya.

Sementara itu, CFO OpenAI, Sarah Friar, memiliki perbedaan pendapat serius dengan Altman tentang kemungkinan IPO. Friar percaya bahwa perusahaan belum siap go public tahun ini, mengingat banyak pekerjaan yang tertunda dan risiko keuangan dari komitmen Altman untuk menghabiskan 600 miliar dolar dalam kapasitas komputasi dalam lima tahun. Tapi yang aneh di sini: Friar kini tidak lagi langsung melapor ke Altman, melainkan melapor ke Fidji Simo, yang baru saja cuti karena alasan kesehatan. Sebuah perusahaan yang bersiap IPO dengan dinamika internal seperti ini, yah, cukup rumit.

Seorang mantan anggota dewan menggambarkan Altman dengan dua karakteristik sekaligus: keinginan tulus untuk menyenangkan dalam setiap interaksi tatap muka, tetapi sekaligus ketidakpedulian yang hampir sociopathic terhadap konsekuensi menipu orang lain. Kombinasi ini, menurut laporan, jarang ditemukan pada orang, tapi sangat cocok untuk seorang penjual.

Yang saya khawatirkan adalah ini bukan sekadar gosip korporat. OpenAI sedang mengembangkan apa yang mereka sendiri gambarkan sebagai teknologi paling kuat dalam sejarah manusia. Teknologi yang berpotensi mengubah ekonomi, menciptakan senjata bio-kimia dalam skala besar, atau melakukan serangan siber. Dan pengaman keamanan yang seharusnya melindungi dari risiko-risiko ini telah dibongkar. Mantan ilmuwan utama dan mantan kepala keamanan menganggap CEO tidak dapat dipercaya. Eksekutif Microsoft membandingkannya dengan SBF.

Respons OpenAI kepada The New Yorker adalah minim: mereka mengatakan bahwa artikel tersebut mengulangi kejadian yang sudah dilaporkan dengan menggunakan klaim anonim. Altman tidak menanggapi tuduhan spesifik, hanya mempertanyakan motif dari sumber-sumber tersebut.

Sepuluh tahun OpenAI dirangkum: sekelompok idealis mendirikan organisasi nirlaba untuk melindungi umat manusia dari risiko AI. Mereka mencapai kemajuan luar biasa. Modal masuk secara besar-besaran. Misi mulai bergeser. Tim keamanan dibubarkan. Kritikus menghilang. Struktur nirlaba diubah menjadi entitas berorientasi laba. Dewan yang dulu punya kekuasaan untuk menutup perusahaan kini penuh dengan sekutu CEO. Perusahaan yang berjanji akan mengalokasikan 20% dari kekuatannya untuk melindungi keamanan manusia kini memiliki juru bicara yang mengatakan bahwa penelitian tentang keamanan eksistensial 'bukan sesuatu yang benar-benar ada'.

Dan tokoh utama dari cerita ini hampir membawa OpenAI ke IPO dengan valuasi lebih dari 850 miliar dolar. Ratusan saksi mata memberi label yang sama: dia tidak terikat oleh kebenaran.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan