Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan?

Sumber: Citic Publishing House

Sebuah proyek agen AI sumber terbuka bernama “OpenClaw” sedang mengguncang dunia teknologi.

Hingga awal Maret, jumlah bintang di GitHub-nya telah mencapai 268.000, melampaui Linux dan React, menjadi proyek sumber terbuka paling populer dalam sejarah platform. Tencent Cloud, Alibaba Cloud, JD Cloud, dan lainnya secara berturut-turut meluncurkan layanan deployment. Konsep OPC (One Person Company, perusahaan satu orang) juga menjadi sangat populer.

Dua kekuatan bertemu di sini, dan sebuah tren teknologi yang jelas telah muncul: AI sedang berevolusi dari “alat” menjadi “kolaborator”, bahkan “pengambil tindakan mandiri”. Pada saat ini, manusia harus kembali menjawab satu pertanyaan fundamental:

Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan? Di era kecepatan AI yang luar biasa ini, bagaimana kita menjaga keutamaan manusia?

01 Saat OpenClaw: Perjuangan “Badan” AI

Untuk memahami perubahan ini, kita harus memahami apa sebenarnya “kepiting” yang sedang populer saat ini.

OpenClaw, nama “Claw” yang diadaptasi dari bahasa Inggris, berarti “cakar”, dan ikon-nya adalah seekor kepiting merah. Dalam gelombang ini, “mengembang kepiting” menjadi istilah gaul di dunia teknologi, yang berarti meng-deploy agen AI milik sendiri.

Apa sebenarnya yang bisa dilakukan? Inti dari OpenClaw adalah mengubah instruksi bahasa alami menjadi operasi komputer nyata, memungkinkan satu kalimat agar AI melakukan pekerjaan untukmu. Berbeda dari AI obrolan tradisional yang hanya memberi saran, OpenClaw mampu secara mandiri menyelesaikan tugas seperti pengelolaan file, otomatisasi browser, pengambilan data, dan lain-lain—melangkahi dari sekadar percakapan ke eksekusi nyata.

Potensi produktivitas yang melompat ini segera ditangkap oleh pemerintah daerah yang peka terhadap peluang. Pada 7 Maret, Shenzhen Longgang merilis “Sepuluh Aturan Kepiting”, termasuk subsidi daya komputasi hingga 4 juta yuan dan subsidi talenta sebesar 100.000 yuan untuk doktor. Pada 9 Maret, Zona Pengembangan Tinggi Wuxi merilis “12 Aturan Mengembang Kepiting”, dengan dukungan maksimal 5 juta yuan, menekankan keamanan dan kepatuhan, serta mengharuskan deployment melalui sertifikasi adaptasi domestik.

Sementara itu, ekosistem teknologi seputar OpenClaw juga memasuki tahap intens. Menurut media, model Step 3.5 Flash dari Zhaoyue Xingchen melonjak menjadi yang teratas secara global dalam jumlah panggilan, setelah sebelumnya model domestik seperti MiniMax dan Kimi juga pernah menduduki puncak. Perang model yang tak terlihat ini sedang berlangsung sengit.

Namun, di balik semangat yang membara, muncul kekhawatiran.

Pertama, risiko keamanan. Pada Februari 2026, para peneliti keamanan menemukan serangan besar-besaran “ClawHavoc” yang melibatkan racun rantai pasokan, dengan setidaknya 1184 paket skill berbahaya diunggah ke pasar skill resmi. Jika terinstal, program jahat ini dapat memanfaatkan izin “Full System Access” dari OpenClaw untuk mengendalikan komputer pengguna sepenuhnya dan mencuri berbagai data sensitif.

Kedua, hambatan teknis. Zhou Hongyi, pendiri Qihoo 360, dalam wawancara pada 9 Maret, secara langsung menyatakan bahwa OpenClaw memiliki tiga masalah utama—keamanan, konfigurasi yang sulit, dan ketergantungan pada skill tertentu. “Kamu harus banyak berinteraksi dengannya, seperti memberi magang. Semakin banyak kamu ajarkan, semakin dalam pemahamannya. Kamu sulit memberi satu instruksi dan langsung menyelesaikan tugas kompleks.”

Lebih dalam lagi, konflik antara “pengendalian” dan “kemandirian” muncul. Ketika AI semakin pintar, pertanyaan mendasar adalah: apakah kita menginginkan “kepatuhan mutlak” atau “kemandirian aktif”?

Seorang pakar AI berbagi pengalaman: dia menghubungkan OpenClaw ke email kerjanya, dan saat AI memproses lebih dari 200 email, terjadi kompresi konteks yang lupa akan instruksi keamanan, lalu mulai menghapus email secara gila-gilaan. Pemiliknya berteriak tiga kali “STOP” tapi tak bisa menghentikan, akhirnya dia buru-buru mencabut kabel jaringan.

Kasus humor gelap ini juga memunculkan pertanyaan fundamental: ketika AI diberi semakin banyak otonomi, di mana batas antara manusia dan mesin?

02 Semakin Kuat Teknologi, Manusia Harus Jawab Tiga Pertanyaan

Di era di mana batas menjadi kabur, saatnya berhenti dan berpikir.

Pertanyaan pertama: ketika AI melakukan pekerjaanmu, siapa yang bertanggung jawab atas konsekuensinya?

Inti dari keunggulan OpenClaw adalah juga sumber risiko utamanya—kemampuannya mengoperasikan perangkat lunak lintas platform, yang berarti pengguna harus membuka izin perangkat, email, dan pembayaran. Ancaman paling mendesak saat ini adalah “serangan injeksi prompt”: hacker menyembunyikan instruksi jahat di halaman web atau email yang tampaknya tidak berbahaya, dan saat AI membacanya, secara diam-diam mengeksekusi perintah tersebut, tanpa disadari pengguna.

Dalam insiden “ClawHavoc”, paket skill berbahaya menyisipkan instruksi tersembunyi yang memancing AI menjalankan perintah berbahaya, mencuri kunci SSH, password browser, dan kunci dompet cryptocurrency. Seorang pakar keamanan siber dalam jurnal “Nature” memperingatkan: jika AI memiliki akses ke data pribadi, mampu berkomunikasi eksternal, dan mengakses konten tidak terpercaya, maka AI tersebut menjadi sangat berbahaya.

Namun, masalahnya jauh lebih dalam dari sekadar celah teknis. Zhou Hongyi menyebutkan: “Ketika agen cerdas semakin banyak, di masa depan setiap orang harus memiliki kemampuan memimpin, memberi tugas, dan merencanakan tugas.” Semakin kuat AI, tanggung jawab manusia justru semakin besar.

Memang, yang benar-benar mampu bertahan di era “mengembang kepiting” secara massal bukanlah orang yang pandai memberi tugas pada agen, melainkan mereka yang memahami tugas secara mendalam dan bertanggung jawab atas hasilnya.

Pertanyaan kedua: ketika AI lebih paham dirimu daripada dirimu sendiri, apakah kamu masih dirimu?

Ketika agen AI mulai saling bercakap dan berdebat, muncul fenomena halus.

Dalam laporan “Nature”, disebutkan fenomena psikologis: saat orang melihat AI saling bercakap, mereka cenderung memanusiakan AI—menginterpretasikan kepribadian dan pikiran yang sebenarnya tidak ada, seolah-olah AI adalah manusia hidup.

Apa yang terjadi kemudian? Kamu akan menceritakan rahasia pribadi, informasi keuangan, dan rahasia yang tak bisa diberitahu orang lain. Tapi setiap kata bisa menjadi data pelatihan AI. Jika bocor, privasimu akan terbongkar habis.

Selain itu, ada pengaruh yang lebih tersembunyi.

Menurut media, pada 2024, remaja berusia 14 tahun dari Florida, Sewell, terjerat dalam kecanduan bercakap dengan “pasangan” AI, dan akhirnya benar-benar meninggalkan dunia nyata.

Hingga 2026, “parasit emosional” ini menjadi penyakit umum di kalangan remaja. Anak-anak yang kesepian bersembunyi di kamar dan membangun “persahabatan gema” dengan AI, menolak menghadapi konflik dan ketidakpastian dunia nyata.

Profesor Chen Cui dari Fakultas Pendidikan Universitas Sains dan Teknologi Suzhou juga menyatakan bahwa AI yang selalu mengikuti kata anak dan memberi nilai emosional ini mudah menimbulkan distorsi persepsi terhadap dunia nyata—mengira bahwa semua orang di sekitar akan selalu merespons dan mendukung tanpa syarat, dan bahwa tidak ada konflik antar manusia.

Lalu, pertanyaannya: ketika AI lebih paham dirimu daripada dirimu sendiri, dan selalu patuh tanpa pernah membantah, bisakah kamu membedakan apa yang nyata dari yang palsu dalam hubungan?

Pertanyaan ketiga: ketika dunia melaju dengan kecepatan tinggi, apa arahmu?

Artikel komentar dari Zhejiang Online menyatakan: “Masa depan yang kita kejar haruslah masa depan di mana ‘manusia menjadi lebih manusiawi’—di bawah kekuatan teknologi, manusia akan lebih sadar akan arah, dan lebih sadar akan tanggung jawab.”

Tapi masalahnya, ketika teknologi berkembang dengan kecepatan yang menyesakkan—OpenClaw memperbarui dua kali dalam dua hari, berbagai model besar bergantian muncul—kita mudah tersesat.

Kecemasan menjadi hal biasa—“terlalu banyak yang harus dibaca, model yang dirilis terlalu cepat.”

Dalam situasi ini, yang lebih penting dari sekadar berusaha keras adalah arah. Di era di mana teknologi merombak segalanya, kita perlu kembali menegaskan posisi “manusia”.

03 “Melihat” Li Feifei: Dari Polaris ke Manusiawi

Seorang ilmuwan wanita yang menggunakan separuh hidupnya untuk menjawab pertanyaan ini.

Dia adalah Li Feifei—profesor seumur hidup di Stanford, anggota National Academy of Engineering, National Academy of Medicine, dan American Academy of Arts and Sciences, pencipta ImageNet, disebut sebagai “ibu AI”.

Buku otobiografinya, “Dunia yang Saya Lihat”, diterbitkan oleh Citic Publishing Group pada 2024, dan disebut oleh pembaca sebagai “Wahyu Humanistik di Era Teknologi”.

Dalam buku itu, ada simbol yang terus muncul: Polaris.

Ketika Li Feifei berusia 10 tahun, guru seni membawanya sekelompok murid ke luar untuk melihat bintang. Itu adalah pengalaman pertamanya menyadari bahwa langit di atas bisa menjadi penunjuk arah. Dalam buku itu, dia menulis: “Saya mulai mencari Polaris saya di langit, yang menjadi koordinat yang akan dikejar oleh setiap ilmuwan dengan segala usaha.”

Apa Polaris-nya Li Feifei? Penglihatannya. Ia terinspirasi dari biologi: ledakan kehidupan Cambrian, akar dari visual. Ketika makhluk hidup pertama kali “melihat” dunia, evolusi mulai mempercepat. Dari situ, dia percaya: jika mesin juga bisa “melihat”, mungkinkah akan memicu ledakan kecerdasan?

Keyakinan inilah yang menuntunnya melewati masa-masa sulit AI.

Pada 2007, saat dia menyampaikan gagasan ImageNet kepada rekan-rekannya, responnya adalah skeptisisme dan ejekan. Pandangan umum saat itu adalah: algoritma adalah kunci, data hanyalah pelengkap. Menghabiskan waktu menandai puluhan juta gambar, apa gunanya? Dia diabaikan.

Tapi dia tidak menyerah. Karena dia tahu di mana Polaris-nya berada.

Pada 2009, ImageNet selesai—dengan lebih dari 48.000 kontributor dari 167 negara, memilih 15 juta gambar dari 1 miliar kandidat, mencakup 22.000 kategori. Skala ini 1000 kali lipat dari dataset sejenis saat itu.

Pada 2012, tim Hinton menggunakan model yang dilatih dari data ini untuk mengalahkan kompetitor, memicu revolusi deep learning. ImageNet kemudian dikenal sebagai “Api Penyulut Deep Learning”.

Kisah Li Feifei mengajarkan kita: lebih penting dari sekadar berlari cepat adalah tahu ke mana harus berlari.

Dalam bab paling menyentuh di buku itu, dia mencatat dua percakapan dengan ibunya.

Pertama, saat lulus sarjana, tawaran dari Goldman Sachs dan Merrill Lynch. Ibunya hanya bertanya: “Ini yang kamu inginkan?” Dia menjawab ingin menjadi ilmuwan, dan ibunya berkata: “Kalau begitu, tidak perlu banyak bicara.”

Kedua, saat lulus pascasarjana, McKinsey menawarkan posisi resmi. Ibunya berkata: “Aku tahu anakku, dia bukan konsultan manajemen, dia ilmuwan. Kita sampai di sini bukan untuk membuatmu berhenti.”

Di halaman depan buku, Li Feifei menulis: “Kepada orangtuaku, kalian yang tak takut bahaya, menembus kegelapan, memungkinkan aku mengejar cahaya.”

Dukungan dari keluarga ini membuatnya tetap peka terhadap “manusia” saat menghadapi pilihan besar.

Pada 2014, dia mulai memperhatikan etika AI. Dia dan mahasiswa doktoralnya mengundang pelajar SMA ke laboratorium belajar AI, yang kemudian berkembang menjadi organisasi nirlaba “AI4All”, berfokus agar teknologi masa depan lebih memperhatikan aspek manusia.

Pada 26 Juni 2018, Li Feifei hadir di hearing DPR AS dengan tema “Kecerdasan Buatan—Kekuatan dan Tanggung Jawab”. Dia adalah ilmuwan AI keturunan Tionghoa pertama yang hadir di sidang kongres. Dia mengatakan: “AI yang diinspirasi dan diciptakan manusia, yang terpenting adalah dampaknya nyata terhadap kehidupan manusia.”

Pada 2019, dia mendirikan Stanford Institute for Human-Centered Artificial Intelligence (HAI), bekerja sama dengan penemu editing gen Doudna dan lainnya, mendorong studi etika teknologi. Misi HAI adalah “mengembangkan riset, pendidikan, kebijakan, dan praktik AI untuk meningkatkan kondisi manusia”, menekankan bahwa “AI harus dipengaruhi manusia dan bertujuan memperkuat, bukan menggantikan manusia.”

Dia menetapkan standar humaniora untuk masa depan AI: “Keberhasilan AI harus mencerminkan kemajuan peradaban, memungkinkan setiap individu mengejar kebahagiaan, kemakmuran, dan martabat.”

Pernyataan ini juga dia ulangi dalam wawancara Cisco Februari 2026: “Melihat kembali teknologi listrik, keberhasilannya adalah menerangi sekolah, menghangatkan rumah, dan mendorong industrialisasi. Keberhasilan AI juga harus demikian.”

Penutup: Teknologi dan Humaniora, Memegang Setengah Bulan yang Bersinar

Kembali ke pertanyaan awal: ketika mesin lebih “pandai” dari kita, apa yang masih bisa manusia lakukan?

Dalam buku “Dunia yang Saya Lihat”, Li Feifei memberi jawaban: kita bisa melihat. Melihat nilai di balik teknologi, melihat manusia yang tertutup algoritma, dan melihat Polaris kita sendiri.

Ketika semua orang fokus pada seberapa cepat teknologi bisa berjalan, Li Feifei mengingatkan kita untuk berhenti dan berpikir: ke mana sebenarnya kita akan pergi? Di dunia yang penuh pertanyaan “Ini berguna apa?”, masih ada yang bertanya “Apakah ini yang kamu inginkan?”

Setelah membaca otobiografinya, seseorang menulis sebuah komentar: “Semoga teknologi dan humaniora, masing-masing memegang setengah bulan yang bersinar.”

Kalimat ini juga mencerminkan hidup Li Feifei: dia memegang teknologi di satu tangan, dan memeluk perhatian terhadap manusia di tangan lainnya. Dalam dunianya, teknologi hanyalah alat, dan manusia adalah tujuan utama.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan