Alasan untuk AI yang membosankan

Balapan benchmark AI punya pemenang. Itu saja, bukan Anda.

Setiap beberapa bulan, model baru diluncurkan dan papan peringkat baru diacak ulang. Laboratorium berlomba untuk saling mengungguli dalam penalaran, pengkodean, dan jawaban pada tes yang dirancang untuk mengukur kecerdasan mesin. Cakupannya mengikuti. Begitu juga pendanaannya.

Yang kurang mendapat perhatian adalah apakah semuanya ini memang tak terelakkan. Benchmark, perlombaan senjata, cara membingkai AI sebagai keselamatan atau malapetaka—semuanya adalah pilihan, bukan hukum fisika. Itu mencerminkan apa yang diputuskan industri untuk dioptimalkan, dan apa yang diputuskan untuk didanai. Teknologi yang membutuhkan puluhan tahun untuk matang dalam cara-cara biasa yang bermanfaat tidak menghasilkan miliaran tahun ini. Narasi yang ekstrem, ya.

Beberapa peneliti menganggap tujuan itu keliru. Bukan karena AI tidak penting, tetapi karena yang penting tidak harus berarti belum pernah ada sebelumnya. Mesin cetak mengubah dunia. Begitu juga listrik. Keduanya mengubah dunia secara bertahap, melalui adopsi yang berantakan, memberi masyarakat waktu untuk merespons. Jika AI mengikuti pola itu, pertanyaan yang tepat bukan soal superinteligensi. Melainkan tentang siapa yang diuntungkan, siapa yang dirugikan, dan apakah alat yang sedang kita bangun benar-benar bekerja bagi orang-orang yang memakainya.

Banyak peneliti telah mengajukan pertanyaan-pertanyaan itu dari arah yang sangat berbeda. Berikut tiga di antaranya.

Bermanfaat, bukan umum

Ruchir Puri telah membangun AI di IBM $IBM -0.68% sejak sebelum kebanyakan orang pernah mendengar tentang machine learning. Dia menyaksikan Watson mengalahkan pemain Jeopardy terbaik di dunia pada 2011. Dia telah menyaksikan beberapa siklus kehebohan memuncak lalu surut sejak saat itu. Ketika gelombang saat ini tiba, dia punya tes sederhana untuk menilainya: apakah itu bermanfaat?

Tidak mengesankan. Tidak umum. Bermanfaat.

“Saya tidak terlalu peduli dengan artificial general intelligence,” katanya. “Saya peduli bagian yang bermanfaat.”

Pembingkaian itu membuatnya berseberangan dengan citra diri industri yang sebagian besar. Laboratorium yang berlomba menuju AGI mengoptimalkan untuk keluasan, membangun sistem yang bisa melakukan apa pun, menjawab apa pun, bernalar tentang apa pun. Puri menganggap itu target yang salah, dan dia punya satu benchmark yang ingin dia lihat industri benar-benar mencoba mencapainya.

Otak manusia hidup dalam 1.200 sentimeter kubik, mengonsumsi 20 watt—energi sebuah lampu—dan, seperti yang ditunjukkan Puri, berjalan dengan sandwich. Satu GPU Nvidia $NVDA +0.26% mengonsumsi 1.200 watt, 60 kali lebih banyak daripada seluruh otak, dan Anda perlu ribuan di antaranya di pusat data besar untuk melakukan sesuatu yang berarti. Jika otak adalah benchmark-nya, industri tidak mendekati efisien. Industri justru bergerak ke arah yang salah.

Alternatifnya adalah arsitektur hibrida, yang dia sebut: model kecil, menengah, dan besar yang bekerja bersama, masing-masing ditugaskan pada tugas yang paling mereka tangani. Model frontier yang besar menangani penalaran dan perencanaan yang kompleks. Model yang lebih kecil dan dibuat khusus menangani eksekusi. Tugas sesederhana menyusun email tidak perlu sistem yang dilatih dengan setengah internet. Yang dibutuhkan adalah sesuatu yang cepat, murah, dan fokus. Setiap sembilan bulan atau lebih, Puri mencatat, model kecil dari generasi sebelumnya menjadi kira-kira setara dengan apa yang sebelumnya dianggap model besar. Kecerdasan semakin murah. Pertanyaannya: apakah ada yang membangun dengan kenyataan itu.

Pendekatan itu punya dukungan nyata di dunia. Airbnb $ABNB -1.45% menggunakan model-model yang lebih kecil untuk menyelesaikan sebagian besar masalah layanan pelanggan lebih cepat daripada perwakilan manusianya. Meta $META +0.35% tidak memakai model terbesarnya untuk menyajikan iklan; ia mendistilasi pengetahuan itu menjadi model yang lebih kecil yang dibangun khusus untuk tugas tersebut. Polanya cukup konsisten sehingga peneliti mulai menyebutnya sebagai knowledge assembly line: data mengalir masuk, model-model terspesialisasi menangani langkah-langkah diskret, dan sesuatu yang bermanfaat keluar dari ujung lainnya.

IBM telah membangun assembly line itu lebih lama daripada kebanyakan. Agen hibrida yang menggabungkan model dari beberapa perusahaan telah menunjukkan peningkatan produktivitas 45% di antara tenaga kerja rekayasa yang besar. Sistem yang berjalan pada model yang lebih kecil dan dibuat khusus kini membantu para insinyur yang menangani 84% transaksi keuangan dunia mendapatkan informasi yang tepat pada waktu yang tepat. Ini bukan aplikasi yang heboh. Tapi juga tidak gagal.

Tak satu pun dari mereka memerlukan sistem yang bisa menulis puisi atau menyelesaikan pekerjaan rumah matematika anak Anda. Mereka memerlukan sesuatu yang lebih sempit, dan karena itu lebih dapat dipercaya. Model yang dilatih untuk melakukan satu hal dengan baik tahu kapan sebuah pertanyaan berada di luar cakupannya. Ia mengatakannya. Ketidakpastian yang terkalibrasi itu—tahu apa yang tidak Anda ketahui—masih menjadi tantangan bagi model frontier besar.

“Saya ingin membangun agen dan sistem untuk proses-proses itu,” kata Puri. “Bukan sesuatu yang menjawab dua juta hal.”

Alat, bukan agen

Ben Shneiderman punya tes sederhana untuk mengetahui apakah sistem AI dirancang dengan baik. Apakah orang yang menggunakannya merasa seperti mereka melakukan sesuatu, atau terasa seperti ada sesuatu yang dilakukan untuk mereka?

Pembedaan itu lebih penting daripada yang terdengar. Shneiderman, seorang ilmuwan komputer di University of Maryland yang membantu meletakkan fondasi untuk desain antarmuka modern, telah menghabiskan puluhan tahun berargumentasi bahwa tujuan teknologi seharusnya memperkuat kemampuan manusia, bukan menggantikannya. Alat yang bagus membangun apa yang dia sebut user self-efficacy, atau keyakinan yang muncul dari mengetahui bahwa Anda bisa melakukan sesuatu sendiri. Yang buruk memindahkan agensi itu dengan diam-diam ke tempat lain.

Dia merasa sebagian besar industri AI sedang membangun alat yang buruk, dan dia berpikir belokan ke arah agentic membuatnya lebih buruk. Pemasaran untuk agen AI adalah bahwa mereka bertindak atas nama Anda, menangani tugas dari awal sampai akhir tanpa keterlibatan Anda. Bagi Shneiderman, itu bukan fitur. Itu masalahnya. Jika ada yang salah—dan pasti ada—siapa yang bertanggung jawab? Jika sesuatu berjalan benar, siapa yang belajar apa pun?

Jerangkap yang telah ia lawan sejak lama punya nama. Antropomorfisme, dorongan untuk membuat teknologi tampak seperti manusia, adalah yang terus menang, dan yang terus gagal. Pada 1970-an, bank-bank bereksperimen dengan ATM yang menyapa pelanggan dengan “Bagaimana saya bisa membantu Anda?” dan memberi diri mereka nama seperti Tilly the Teller dan Harvey the World Banker. Mereka lalu digantikan oleh mesin yang menampilkan tiga opsi: Saldo, uang tunai, dan setoran. Penggunaan meroket. Citibank punya penggunaan 50% lebih tinggi daripada para pesaingnya. Orang tidak mau hubungan yang sintetis. Mereka ingin mendapatkan uang mereka.

Pola yang sama telah berulang lintas dekade, dari Microsoft $MSFT -0.16% Bob, pin AI dari Humane, dan gelombang robot humanoid. Setiap kali, versi yang antropomorfik gagal dan digantikan oleh sesuatu yang lebih mirip alat. Shneiderman menyebutnya ide zombie. Ia tidak mati—hanya terus muncul lagi.

Yang berbeda sekarang adalah skala dan kecanggihan. Generasi AI saat ini, katanya, memang benar-benar mengesankan—bahkan sangat mengesankan. Tapi yang mengesankan dan yang bermanfaat itu tidak sama, dan sistem yang dirancang untuk tampak manusiawi, mengatakan “saya”, untuk mensimulasikan hubungan, sedang mengoptimalkan kualitas yang keliru. Pertanyaan yang ingin ia ajukan kepada perancang lebih sederhana: apakah ini memberi orang lebih banyak kuasa, atau malah menguranginya?

“Tidak ada ‘I’ dalam AI,” katanya. “Atau setidaknya, seharusnya tidak ada.”

Orang, bukan benchmark

Karen Panetta punya jawaban sederhana tentang mengapa pengembangan AI terlihat seperti ini. Ikuti uangnya.

Panetta, seorang profesor teknik elektro dan komputer di Tufts University serta fellow IEEE, meneliti etika AI dan punya pandangan yang jelas tentang ke mana teknologi itu seharusnya menuju. Hewan peliharaan bantu untuk pasien Alzheimer, alat pembelajaran adaptif untuk anak-anak dengan gaya kognitif berbeda, pemantauan rumah pintar untuk orang lanjut usia yang menua di tempat. Teknologi untuk melakukannya dengan baik, katanya, sebagian besar sudah ada. Investasinya yang tidak.

“Manusia tidak peduli dengan benchmark,” katanya. “Mereka peduli, apakah itu bekerja saat saya membelinya, dan apakah itu benar-benar akan membuat hidup saya lebih mudah?”

Masalahnya adalah orang-orang yang paling diuntungkan dari AI bantu yang dirancang dengan baik justru merupakan ‘pitch’ yang paling tidak menarik bagi seorang investor modal ventura. Sistem yang mengubah proses manufaktur, mengurangi cedera di tempat kerja, dan menurunkan biaya layanan kesehatan untuk karyawan perusahaan punya imbal balik yang jelas. Pendamping robot yang menjaga pasien Alzheimer tetap tenang dan terhubung butuh jenis matematika yang sama sekali berbeda. Jadi uang mengalir ke mana pun uang mengalir, dan populasi yang paling punya alasan untuk meraih manfaat terus menunggu.

Menurut Panetta, yang berubah adalah masalah rekayasa yang mahal akhirnya sedang diselesaikan dalam skala. Sensor menjadi lebih murah. Baterai lebih ringan. Protokol nirkabel menjadi hal yang umum. Investasi yang sama yang membangun robot industri untuk lantai pabrik secara diam-diam telah membuat robotika konsumen menjadi layak dengan cara yang belum mungkin lima tahun lalu. Jalur dari gudang ke ruang tamu lebih pendek daripada yang terlihat.

Tapi dia punya kekhawatiran bahwa kegembiraan atas transisi itu cenderung melewatkannya. Robot fisik memiliki batasan alami. Anda tahu batas kekuatan. Anda tahu kinematika. Anda bisa mengantisipasi, mensimulasikan, dan merancang di sekitar bagaimana mereka akan gagal. AI generatif tidak datang dengan jaminan-jaminan itu. Ia nondeterministik. Ia berhalusinasi. Tidak ada yang sepenuhnya memetakan apa yang terjadi ketika Anda meletakkannya di dalam sebuah sistem yang secara fisik hadir di rumah seseorang dengan demensia, atau pada seorang anak yang tidak bisa mengenali kapan sesuatu sudah berjalan salah.

Dia telah melihat apa yang terjadi ketika sebuah sensor kotor dan robot kehilangan kesadaran spasialnya. Dia telah memikirkan apa artinya membangun sesuatu yang mempelajari detail intim tentang kehidupan seseorang—rutinitas mereka, kondisi kognitif mereka, momen-momen kebingungan mereka—lalu bertindak secara otonom berdasarkan informasi itu. Fail-safe, katanya, belum menyusul.

“Saya tidak khawatir tentang robotnya,” katanya. “Saya khawatir tentang AI-nya.”

📬 Daftar untuk Daily Brief

Briefing global ekonomi kami yang gratis, cepat, dan menyenangkan, dikirim setiap pagi pada hari kerja.

Daftar saya

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan