Saya sedang membaca sebuah buku setebal 165 halaman baru-baru ini. Penulisnya Leopold Aschenbrenner, yang dua tahun lalu dengan tepat memprediksi tren perkembangan AI saat ini.


Dia dipecat dari OpenAI pada April 2024, dan pada Juni menulis buku ini, *Situational Awareness*, yang pada dasarnya adalah sebuah dokumen penggalangan dana.
Pada September, dia membuka dana lindung nilai sendiri. Dana ini meningkat dari lebih dari 200 juta dolar dalam satu tahun menjadi 5,5 miliar, tepat 24 kali lipat.
Pengembalian bersih di paruh pertama 2025 adalah 47%.
Saya membaca dan mulai bertanya-tanya, apa dasar dia?
Apa yang membuat seorang berusia 22 tahun mampu menulis tentang dunia saat ini di tahun 2024?
Bisa melihat masa depan karena dia berdiri di ruangan tempat masa depan sedang dibangun.
Di lingkungannya di San Francisco, di tim Superalignment OpenAI, langsung di bawah kepala ilmuwan Ilya Sutskever, dia bekerja.
Buku ini, adalah persembahannya untuk Ilya.
Setiap kalimat yang dia tulis dua tahun lalu, jika dilihat hari ini, hampir semuanya terbukti benar.
Dia bilang, dalam jangka pendek AI yang paling kekurangan bukan algoritma, melainkan kekuatan komputasi, memori HBM, pusat data, dan listrik.
Dia bilang, hambatan utama tersembunyi dalam kemasan canggih CoWoS.
Dia bilang, jaringan listrik di AS akan menjadi hambatan pertama yang menghambat semua orang.
Dia bilang, akan muncul sebuah "cluster triliun dolar". Kemudian semua pandangan ini menjadi headline.
OpenAI menamai cluster itu Stargate.
Tapi semua itu baru pembuka selera. Dalam buku itu, dia menulis satu kalimat,
“Pada 2027, AGI (Artificial General Intelligence) akan datang.”
Alasannya begini. Empat tahun lalu, AI dari "balita" GPT-2 tumbuh menjadi "remaja pintar" GPT-4.
Dan dalam empat tahun lagi, dia bilang, AI akan mampu menggantikan peneliti manusia, dan melatih AI sendiri.
Begitu AI bisa meneliti AI sendiri, iterasi algoritma manusia selama sepuluh tahun akan diselesaikan dalam satu tahun.
"Ledakan kecerdasan" akan dimulai dari saat itu.
Pada saat itu, manusia tidak akan lagi memahami apa yang dilakukan AI.
Kode yang ditulisnya, keputusan yang diambilnya.
Bagaimana kita tahu, bahwa dia tidak menipu kita?
Leopold dalam buku ini, menawarkan tiga resep.
Pertama, pengawasan lemah yang kuat.
Menggunakan AI yang kemampuan lebih lemah, tapi masih bisa dipahami manusia, untuk mengawasi AI yang jauh lebih kuat.
Taruhannya adalah, AI yang lebih lemah itu masih bisa mendeteksi jika AI yang lebih kuat berbuat jahat.
Leopold sendiri, adalah salah satu penulis bersama makalah ini.
Kedua, AI saling berdebat.
Beberapa AI dihadapkan satu sama lain, saling menantang, saling mengungkap kesalahan.
Manusia hanya sebagai wasit yang diam, memanfaatkan inkonsistensi mereka untuk menemukan yang berbohong.
Ketiga, interpretabilitas mesin.
Saat pelatihan, pertama-tama hilangkan parameter berbahaya.
Lalu langsung buka otak AI, lihat apa yang sebenarnya dipikirkannya.
Buat "penguji kebohongan AI", cari "arah kebenaran" di dalamnya.
Leopold sendiri bilang, ini adalah tantangan level moonshot.
Saat membaca bagian ini, saya baru mengerti mengapa dia mengakhiri dengan foto bersama Oppenheimer.
Dia menganggap ini sebagai versi baru dari Manhattan Project yang sedang dia tulis.
Dia sendiri juga mengakui, ketiga jalan ini pada dasarnya hanyalah "mengakali".
Tidak ada satu pun yang benar-benar menyelesaikan masalah.
Hanya bertaruh bahwa manusia bisa bertahan sampai hari ketika tantangan penyelarasan ini diserahkan kepada AI untuk diselesaikan sendiri.
Yang kita lakukan sekarang bukanlah "kita telah menyelesaikan keamanan AI", melainkan "kita berharap AI yang menyelesaikan keamanan AI untuk kita".
Terdengar seperti sedang membicarakan sebuah hubungan yang tidak sehat?
Tahu bahwa ada yang salah, tapi tetap bertaruh dia akan berubah.
Kembali ke investasi. Bagian paling berharga dari buku ini sebenarnya bukan tahun spesifik "2027 AGI".
Batas kesalahan sangat besar, mungkin terlambat satu tahun, atau setengah tahun lebih awal.
Yang paling berharga adalah menjelaskan secara jelas seluruh tingkat hambatan industri AI selama satu dekade.
Listrik > Kemasan canggih / HBM > Kekuatan komputasi > Algoritma > Aplikasi.
Semakin ke atas semakin langka, semakin ke bawah semakin padat.
Leopold sendiri, dengan uang nyata, membuktikan ini secara langsung di pasar terbuka.
Saat saya menutup buku ini, saya berpikir,
Beberapa buku, jika dibaca satu tahun lebih awal, mungkin bisa menentukan nasib.
Untungnya, sekarang juga tidak terlambat.
“See you in the desert, friend.”
Lihat Asli
post-image
post-image
post-image
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan