Alasan untuk AI yang membosankan

Lomba benchmark AI punya pemenang. Hanya saja, itu bukan kamu.

Setiap beberapa bulan, muncul model baru dan leaderboard baru pun berganti susunan. Laboratorium bersaing untuk saling mengungguli dalam penalaran, pengkodean, dan jawaban pada tes yang dirancang untuk mengukur kecerdasan mesin. Cakupannya diikuti. Dana pun menyusul.

Yang mendapat perhatian lebih sedikit adalah apakah semua ini sesuatu yang tak terelakkan. Benchmark, perlombaan senjata, dan cara membingkai AI sebagai keselamatan atau bencana—semuanya adalah pilihan, bukan hukum fisika. Itu mencerminkan apa yang diputuskan industri untuk dioptimalkan, dan apa yang diputuskan untuk didanai. Teknologi yang butuh puluhan tahun untuk berkembang menjadi hal-hal yang berguna dalam kehidupan sehari-hari tidak mendatangkan miliaran pada kuartal ini. Narasi ekstremlah yang melakukannya.

Beberapa peneliti berpikir tujuan itu keliru. Bukan berarti AI tidak penting, tetapi bahwa yang penting tidak harus berarti yang belum pernah ada sebelumnya. Mesin cetak mengubah dunia. Begitu juga listrik. Keduanya mengubahnya secara bertahap—melalui adopsi yang berantakan—memberi masyarakat waktu untuk merespons. Jika AI mengikuti pola itu, pertanyaan yang tepat bukan tentang superintelligence. Melainkan tentang siapa yang diuntungkan, siapa yang dirugikan, dan apakah alat yang sedang kita bangun benar-benar bekerja bagi orang-orang yang menggunakannya.

Banyak peneliti telah mengajukan pertanyaan-pertanyaan itu dari arah yang sangat berbeda. Berikut tiga di antaranya.

Berguna, bukan umum

Ruchir Puri telah membangun AI di IBM $IBM sejak sebelum kebanyakan orang mendengar tentang machine learning. Ia menyaksikan Watson mengalahkan pemain Jeopardy terbaik di dunia pada 2011. Ia telah melihat beberapa siklus gembar-gembor naik lalu surut sejak saat itu. Ketika gelombang saat ini datang, ia punya tes sederhana untuk itu: apakah itu berguna?

Tidak mengesankan. Tidak umum. Berguna.

“Saya tidak terlalu peduli dengan artificial general intelligence,” katanya. “Saya peduli bagian yang berguna darinya.”

Bingkai itu membuatnya bertentangan dengan citra diri sebagian besar industri. Laboratorium berlomba menuju AGI dengan mengoptimalkan keluasan, membangun sistem yang bisa melakukan apa saja, menjawab apa saja, bernalar tentang apa saja. Puri menganggap itu target yang salah, dan ia punya benchmark yang ingin ia lihat industri benar-benar berupaya mencapainya.

Otak manusia hidup dalam 1.200 sentimeter kubik, mengonsumsi 20 watt—energi dari sebuah lampu—dan, seperti yang ditunjukkan Puri, berjalan dengan sandwich. Satu GPU Nvidia $NVDA mengonsumsi 1.200 watt, 60 kali lebih banyak daripada seluruh otak, dan Anda perlu ribuan di antaranya di pusat data raksasa untuk melakukan sesuatu yang berarti. Jika otak adalah benchmark, industri belum dekat dengan efisien. Industri justru bergerak ke arah yang keliru.

Alternatifnya adalah sesuatu yang ia sebut arsitektur hibrida: model kecil, sedang, dan besar yang bekerja bersama, masing-masing ditugaskan pada pekerjaan yang paling cocok untuknya. Model frontier besar menangani penalaran dan perencanaan yang kompleks. Model-model yang lebih kecil dan khusus menangani eksekusi. Tugas sesederhana menyusun email tidak perlu sistem yang dilatih dari separuh internet. Ia butuh sesuatu yang cepat, murah, dan fokus. Kira-kira setiap sembilan bulan, catat Puri, model kecil dari generasi sebelumnya menjadi kira-kira setara dengan apa yang dulu dianggap besar. Kecerdasan makin murah. Pertanyaannya apakah siapa pun membangun untuk realitas itu.

Pendekatan ini punya dukungan nyata di dunia. Airbnb $ABNB menggunakan model yang lebih kecil untuk menyelesaikan sebagian besar masalah layanan pelanggan lebih cepat daripada perwakilan manusianya. Meta $META tidak memakai model terbesarnya untuk menyajikan iklan; ia mendistil pengetahuan itu menjadi model-model yang lebih kecil yang dibangun khusus untuk tugas tersebut. Polanya cukup konsisten sampai peneliti mulai menyebutnya knowledge assembly line: data mengalir masuk, model-model khusus menangani langkah-langkah diskrit, dan sesuatu yang berguna keluar di ujung lainnya.

IBM telah membangun assembly line itu lebih lama daripada kebanyakan. Sebuah agen hibrida yang menggabungkan model dari beberapa perusahaan telah menunjukkan peningkatan produktivitas 45% di seluruh tenaga kerja engineering yang besar. Sistem yang berjalan dengan model yang lebih kecil dan khusus kini membantu para insinyur yang menjaga 84% transaksi keuangan dunia agar memperoleh informasi yang tepat pada waktu yang tepat. Ini bukan aplikasi yang mencolok. Mereka juga tidak gagal.

Tak satu pun dari semuanya membutuhkan sistem yang bisa menulis puisi atau menyelesaikan PR matematika anak Anda. Mereka butuh sesuatu yang lebih sempit, dan karena itu lebih dapat dipercaya. Model yang dilatih untuk melakukan satu hal dengan baik tahu kapan sebuah pertanyaan berada di luar ruang lingkupnya. Ia mengatakannya. Ketidakpastian yang terkalibrasi itu—mengetahui apa yang tidak Anda ketahui—masih menjadi sesuatu yang sulit dihadapi oleh model frontier besar.

“Saya ingin membangun agen dan sistem untuk proses-proses itu,” kata Puri. “Bukan sesuatu yang menjawab dua juta hal.”

Alat, bukan agen

Ben Shneiderman punya tes sederhana untuk menentukan apakah sebuah sistem AI didesain dengan baik. Apakah orang yang menggunakannya merasa seperti mereka melakukan sesuatu, atau apakah terasa seperti ada sesuatu yang dilakukan untuk mereka?

Perbedaannya lebih penting daripada kedengarannya. Shneiderman, seorang ilmuwan komputer di University of Maryland yang ikut meletakkan fondasi desain antarmuka modern, telah menghabiskan puluhan tahun berargumen bahwa tujuan teknologi seharusnya memperkuat kemampuan manusia, bukan menggantikannya. Alat yang baik membangun apa yang ia sebut user self-efficacy—kepercayaan yang muncul dari mengetahui bahwa Anda bisa melakukan sesuatu sendiri. Yang buruk diam-diam memindahkan agensi itu ke tempat lain.

Ia merasa sebagian besar industri AI sedang membangun alat yang buruk, dan ia menganggap pergeseran menuju agentic membuatnya makin buruk. Promosi untuk AI agent adalah bahwa mereka bertindak atas nama Anda, menangani tugas dari ujung ke ujung tanpa keterlibatan Anda. Bagi Shneiderman, itu bukan fitur. Itu masalahnya. Jika sesuatu salah, dan itu pasti terjadi, siapa yang bertanggung jawab? Jika sesuatu berjalan benar, siapa yang belajar apa pun?

Jeram yang ia lawan sejak lama punya nama. Antropomorfisme, dorongan untuk membuat teknologi tampak seperti manusia, terus menang, dan terus gagal. Pada era 1970-an, bank bereksperimen dengan ATM yang menyapa pelanggan dengan “Bagaimana saya bisa membantu Anda?” dan memberi diri mereka nama seperti Tilly the Teller dan Harvey the World Banker. Mereka lalu digantikan oleh mesin yang menampilkan tiga opsi. Saldo, uang tunai, setoran. Pemanfaatan melonjak. Citibank punya penggunaan 50% lebih tinggi daripada pesaingnya. Orang tidak ingin hubungan yang sintetik. Mereka ingin mengambil uang mereka.

Pola yang sama telah terulang lintas dekade, dari Microsoft $MSFT Bob, pin AI dari Humane, hingga gelombang robot humanoid. Setiap kali, versi antropomorfik gagal dan digantikan oleh sesuatu yang lebih mirip alat. Shneiderman menyebutnya zombie idea. Ia tidak mati, ia hanya terus muncul lagi.

Yang berbeda sekarang adalah skala dan kecanggihan. Generasi AI saat ini memang benar-benar mengesankan, ia mengakui, bahkan secara mengejutkan. Tapi mengesankan dan berguna bukan hal yang sama, dan sistem yang didesain untuk tampak manusiawi, untuk mengatakan “saya”, untuk mensimulasikan relasi, sedang mengoptimalkan kualitas yang salah. Pertanyaan yang ingin ia minta para desainer ajukan lebih sederhana: apakah ini memberi orang lebih banyak kuasa, atau lebih sedikit?

“Tidak ada ‘I’ dalam AI,” katanya. “Atau setidaknya, seharusnya tidak ada.”

Orang, bukan benchmark

Karen Panetta punya jawaban sederhana untuk mengapa pengembangan AI terlihat seperti itu. Ikuti uangnya.

Panetta, seorang profesor teknik elektro dan komputer di Tufts University sekaligus anggota IEEE, meneliti etika AI dan punya pandangan jelas tentang ke mana teknologi seharusnya pergi. Hewan peliharaan bantu untuk pasien Alzheimer, alat pembelajaran adaptif untuk anak-anak dengan gaya kognitif berbeda, pemantauan rumah pintar untuk lansia yang aging in place. Teknologi untuk melakukan itu dengan baik, katanya, sebagian besar sudah ada. Investasinya tidak.

“Manusia tidak peduli dengan benchmark,” katanya. “Mereka peduli, apakah ia bekerja saat saya membelinya, dan apakah ia benar-benar membuat hidup saya lebih mudah?”

Masalahnya adalah orang-orang yang paling diuntungkan dari assistive AI yang didesain dengan baik juga adalah yang paling tidak meyakinkan sebagai materi promosi untuk venture capitalist. Sistem yang mentransformasi proses manufaktur, mengurangi cedera di tempat kerja, dan menurunkan biaya kesehatan bagi karyawan perusahaan punya pengembalian yang jelas. Pendamping robotik yang menjaga pasien Alzheimer tetap tenang dan terhubung membutuhkan jenis matematika yang sama sekali berbeda. Jadi uang mengalir ke mana uang mengalir, dan populasi yang paling punya alasan untuk memperoleh manfaat tetap menunggu.

Yang berubah, kata Panetta, adalah bahwa masalah-masalah teknik yang mahal akhirnya sedang diselesaikan secara besar-besaran. Sensor makin murah. Baterai lebih ringan. Protokol nirkabel ada di mana-mana. Investasi yang sama yang membangun robot industri untuk lantai pabrik diam-diam telah membuat robotika konsumen menjadi layak dengan cara yang tidak terjadi lima tahun lalu. Jalur dari gudang ke ruang tamu lebih pendek daripada yang terlihat.

Tapi ia punya kekhawatiran bahwa kegembiraan seputar transisi itu cenderung melewatkan sesuatu. Robot fisik punya batasan alami. Anda tahu batas kekuatan. Anda tahu kinematiknya. Anda bisa mengantisipasi, mensimulasikan, dan merancang sekitar cara mereka gagal. Generative AI tidak hadir dengan jaminan-jaminan itu. Ia non-deterministik. Ia menghalusinasi. Tidak ada yang sepenuhnya memetakan apa yang terjadi ketika Anda memasukkannya ke dalam sistem yang secara fisik hadir di rumah seseorang dengan demensia, atau seorang anak yang tidak bisa mengenali kapan ada yang salah.

Ia telah melihat apa yang terjadi ketika sensor kotor dan sebuah robot kehilangan kesadaran spasialnya. Ia telah memikirkan apa artinya membangun sesuatu yang mempelajari detail intim tentang kehidupan seseorang, rutinitas mereka, kondisi kognitif mereka, momen-momen kebingungan mereka, lalu bertindak secara otonom berdasarkan informasi itu. Fail-safes, katanya, tidak tertinggal.

“Saya tidak khawatir tentang robotnya,” katanya. “Saya khawatir tentang AI-nya.”

📬 Daftar untuk Daily Brief

Buletin gratis, cepat, dan menyenangkan kami tentang ekonomi global, dikirim setiap pagi pada hari kerja.

Daftarkan saya

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan