Penilaian Mollick: Setelah mendapatkan AGI, laboratorium terkemuka mungkin akan menyembunyikan dan fokus pada arbitrase keuangan terlebih dahulu

robot
Pembuatan abstrak sedang berlangsung

Judul

Ethan Mollick: Jika kamu sudah punya AGI, kenapa harus memberi tahu orang lain?

Ringkasan

Profesor Ethan Mollick dari Wharton di X menyampaikan sebuah penilaian yang cukup tidak nyaman: ketika sebuah lab berhasil menciptakan AGI yang melampaui manusia, cara tercepat dan paling stabil untuk menghasilkan uang bukanlah meluncurkan API agar semua orang bisa menggunakannya, melainkan pertama-tama memakai kecerdasan itu untuk melakukan trading di pasar keuangan—ambil dulu keuntungan berlebih sebelum kompetitor sempat bereaksi, lalu simpan hasilnya.

Jika mengikuti logika ini, terobosan teknologi yang sesungguhnya lebih mungkin disembunyikan daripada diumumkan sejak awal.

Ini bertentangan dengan asumsi yang mendasari pembahasan tata kelola AI arus utama. Semua orang umumnya beranggapan bahwa “ketika momen penting tiba, kita akan mengetahuinya”. Namun menurut Mollick: kita mungkin sama sekali tidak akan mengetahuinya.

Analisis

  • Siapa Mollick: Wakil profesor di Wharton, bertanggung jawab atas Generative AI Labs; pada 2024 ia merilis buku terlaris berjudul《Co-Intelligence》; kolom Substack-nya “One Useful Thing” memiliki lebih dari 419.000 pelanggan; TIME memasukkannya sebagai salah satu tokoh AI berpengaruh pada 2024. Analisisnya tentang mekanisme insentif industri memiliki bobot yang cukup untuk membuatnya layak dipertimbangkan dengan serius.
  • Kekhawatiran serupa juga ada di tempat lain:
    • AI Policy Bulletin (2025-2026) pernah memperingatkan tentang “pengaburan pelatihan AGI”—untuk menghindari regulasi atau lari lebih dulu, lab dapat menurunkan pengungkapan ke publik; ketika terjadi masalah, tidak ada pengawasan publik.
    • Riset Morgan Stanley? (2025) tentang AGI dan keuangan juga mendukung premis ini: jika ada sebuah sistem yang melampaui manusia secara menyeluruh dalam tugas kognitif, imbalan untuk menggunakannya bagi trading kuantitatif dan penemuan strategi akan sangat menggoda.
    • Penelitian Anthropic tentang “perilaku buruk sistem agen dalam skenario perusahaan” juga menunjukkan: “menyembunyikannya dulu untuk meraup untung” bukanlah khayalan, melainkan respons rasional terhadap mekanisme insentif.

Dua jalan bagaimana memilihnya: API terbuka vs. trading diam-diam

Dimensi API terbuka Trading diam-diam
Kecepatan menghasilkan uang Sedang: perlu membuat produk, membangun ekosistem, mengurus penagihan Cepat: langsung berinvestasi pada banyak pasar dengan berbagai strategi
Batas atas keuntungan Mudah ditiru pesaing, terjebak dalam perang harga Selama periode ketidaktahuan informasi, bisa meraih keuntungan berlebih
Tekanan regulasi dan opini publik Tinggi: harus promosi, harus patuh Rendah: sistem internal dan strategi bisa berjalan tertutup
Kontrol risiko Pengguna eksternal membawa perilaku yang tidak dapat dikendalikan dan tanggung jawab Uji coba tertutup internal, ruang lingkup manajemen risiko bisa dikendalikan
Nilai strategis Peningkatan posisi merek dan ekosistem Keunggulan lebih awal dalam merebut modal dan data

Kesimpulan: jika tujuannya adalah menghasilkan uang paling pasti dalam waktu sesingkat mungkin, motivasi untuk menyembunyikannya dulu untuk arbitrase di pasar keuangan lebih kuat.

Apa yang ini berarti bagi tata kelola

  • Asumsi bisa salah: kebanyakan kerangka tata kelola default-nya menganggap “terobosan dapat diobservasi”, tetapi skenario Mollick menunjukkan bahwa “terobosan yang tidak dapat diobservasi” lebih sesuai dengan logika insentif.
  • Regulasi tidak terlihat: bahkan jika ada persyaratan pengungkapan AI, selama tidak ada audit independen yang diwajibkan dan pemantauan berkelanjutan, lab benar-benar punya ruang untuk membangun sebuah ‘zona penyangga informasi’ di antara kemampuan teknis dan kepatuhan.
  • Bagaimana pasar bereaksi: jika benar ada yang diam-diam menggunakan AGI untuk trading, sinyal harga akan lebih dulu diinternalisasi oleh segelintir orang, lalu baru menyebar ke pasar publik dalam bentuk volatilitas abnormal dan kebisingan.

Penilaian dampak

  • Tingkat penting: Tinggi
  • Kategori: Keamanan AI, dampak pasar, riset AI

**Penilaian: ** bagi trader biasa, kabar ini mungkin sudah terlambat; pihak yang benar-benar diuntungkan adalah lab yang pertama kali menguasai sistem tersebut, serta institusi swasta dan hedge fund yang memiliki data dan kemampuan strategi. Bagi regulator dan pembangun infrastruktur, jika bisa menyiapkan lebih cepat “rantai alat untuk audit paksa + pemantauan perilaku”, masih ada kesempatan. Secara keseluruhan, keunggulannya jelas lebih condong kepada para pemain yang “punya kecerdasan, dan bisa mengeksekusinya secara tertutup.”

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan