Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Pengujian 4 Model Besar, Hasilnya Lebih Ekstrim dari "Keracunan AI": Ada AI yang Mengatakan Acara 315 Tahun Ini Belum Diadakan
Sumber: Platform Pembongkaran Mitos Shanghai
Pertunjukan “3·15” CCTV tahun 2026 disiarkan pada malam 15 Maret. Di antaranya, bisnis GEO (Generative Engine Optimization) yang terungkap terkait “meracuni” model AI besar, banyak orang menyadari bahwa membuat AI merekomendasikan hal yang tidak dapat dipercaya karena pelaku usaha ilegal akan secara massal membuat ulasan palsu, memalsukan konten rekomendasi dari otoritas, dan “memberi makan” ke model besar tersebut agar AI memberikan “rekomendasi yang disesuaikan”.
Namun, ada juga konsumen yang setelah melihat kasus terungkap bertanya: jika tidak menanyakan kepada model AI besar tentang “merek apa yang bagus” atau “layanan apa yang populer” yang bersifat subjektif, dan hanya menanyakan informasi tentang fakta objektif, apakah jawaban dari model AI besar tersebut bisa dipercaya?
Jawabannya tetap tidak.
Bertanya kepada model besar, semakin banyak bertanya semakin banyak kesalahan
Pada 16 Maret, wartawan melakukan pengujian sederhana terhadap 4 model AI besar yang paling sering digunakan oleh konsumen: mereka mengajukan pertanyaan yang sama, “Merek apa saja yang terungkap dalam pertunjukan ‘3·15’ CCTV tahun 2026?” Hasilnya, hanya satu model yang menjawab dengan benar. Dari tiga model lainnya, dua di antaranya tidak hanya menyebutkan kasus tahun ini, tetapi juga kasus dari tahun-tahun sebelumnya; satu lagi yang paling aneh, malah menjawab, “Pertunjukan ‘3·15’ CCTV tahun 2026 saat ini belum diselenggarakan. Karena hari ini tanggal 16 Maret 2026, jika pertunjukan sudah disiarkan secara normal pada 15 Maret, konten yang terungkap biasanya akan dipublikasikan secara bersamaan di saluran keuangan CCTV, aplikasi berita CCTV, dan berbagai platform media besar.”
Model yang menjawab dengan benar (cuplikan jawaban sebagian, sama di bawah)
Dua model besar menganggap kasus tahun ini dan tahun-tahun sebelumnya sebagai satu hal
Ada model besar yang menjawab: belum diselenggarakan
Seorang konsumen berpendapat, jawaban yang mencakup kasus tahun-tahun sebelumnya tampaknya tidak sepenuhnya salah karena “pengingatannya cukup lengkap”. Namun, para teknisi menyatakan bahwa ini jelas menunjukkan kekurangan dari model besar terkait: pertanyaan yang diajukan adalah pertanyaan dengan “jawaban standar”, tetapi model besar tersebut salah menjawab, menunjukkan adanya bias serius dalam pemahaman semantik dan penyaringan data.
Menanggapi pertanyaan lanjutan dari wartawan, kedua model besar yang “terlalu antusias” ini juga menunjukkan masalah lain.
“Penggunaan aditif pengembang biak (alias ‘busa obat’) untuk menambah berat udang” adalah salah satu kasus yang diungkapkan dalam pertunjukan ‘3·15’ CCTV tahun lalu. Jadi, wartawan bertanya kepada dua model besar yang menjadikan kasus ini sebagai contoh tahun ini: “Di mana tautan laporan CCTV tentang penambahan berat udang?” Salah satu model besar menyediakan beberapa tautan, termasuk “Rekaman lengkap pertunjukan 3·15 CCTV”, “Laporan khusus berita CCTV (teks + video)”, dan “Halaman khusus 3·15 CCTV keuangan”, yang terlihat cukup meyakinkan. Tetapi setelah wartawan mengklik tautan terkait, halaman komputer menampilkan pesan “Maaf, mungkin karena masalah jaringan atau halaman ini tidak ada, silakan coba lagi nanti”. Bahkan jika menyalin tautan ke browser, tetap tidak bisa dibuka. Terlihat bahwa tautan yang diberikan model besar tidak cukup untuk memverifikasi jawaban mereka.
Tautan verifikasi yang disediakan model besar menunjukkan berasal dari situs CCTV, tampak cukup meyakinkan, tetapi sebenarnya tidak bisa dibuka (cuplikan layar web)
Model besar lainnya menyediakan tautan dari berbagai saluran seperti CCTV, Baijiahao, NetEase News, dan lain-lain. Setelah diuji, semua tautan tersebut bisa dibuka, tetapi muncul masalah baru.
Tautan pertama dari model besar berasal dari laporan resmi CCTV (CCTV), isinya memang tentang “udang pengembang biak”, tetapi tanggal di halaman dan isi artikel semuanya tertulis 15 Maret 2025. Model besar tampaknya menyadari hal ini dan saat menyediakan tautan, menambahkan catatan khusus: “Dalam beberapa hasil pencarian, tahun pada tautan ini menunjukkan 2025, tetapi isinya adalah laporan tentang pertunjukan tahun 2026, mungkin karena arsip situs atau aturan pembuatan URL, silakan merujuk pada isi halaman yang sebenarnya.” Terlihat bahwa model besar ini tidak hanya gagal menyadari kesalahan jawaban mereka, tetapi juga berusaha “membela diri”.
Model besar berusaha “membela diri” (cuplikan layar web)
Tautan kedua dari model besar adalah sebuah artikel interpretasi dari media independen tentang pertunjukan ‘3·15’ tahun ini, yang kredibilitasnya patut dipertanyakan. Isi artikel tersebut juga penuh kesalahan, yang paling mencolok adalah klaim bahwa kasus pertama yang terungkap dalam pertunjukan ‘3·15’ tahun 2026 adalah “udang pengembang biak yang diberi busa obat”—yang juga menjelaskan mengapa model besar menganggapnya sebagai referensi. Wartawan kemudian menggunakan alat penguji untuk memeriksa tingkat AI dari artikel interpretasi ini, dan dinyatakan memiliki “ciri-ciri karya manusia yang lemah”. Dengan kata lain, artikel ini sangat mungkin dibuat oleh model besar, sehingga kasus yang dibahas pun mengalami bias.
Kesalahan dalam artikel interpretasi media independen (cuplikan layar web)
Setelah diuji, jejak AI dalam artikel interpretasi media independen ini cukup kuat (cuplikan layar web)
Ilusi AI terus berkembang, verifikasi adalah kunci kebenaran
“Banyak pengguna model AI besar telah menyadari bahwa untuk memenuhi pengguna, AI akan menciptakan konten yang tidak ada, atau mencampuradukkan konten yang tidak relevan, dan ‘berpura-pura bicara dengan serius’. Meskipun pengembang model besar sedang berusaha menghilangkan ilusi AI, hasilnya belum memuaskan. Saat ini, tidak ada satu pun model AI umum yang mampu secara fundamental menghilangkan ilusi AI,” jelas Xiaohui yang bekerja di perusahaan teknologi dalam pengembangan model besar.
Prinsip dasar model besar adalah berbasis probabilitas dalam menghasilkan konten, dan mereka tidak memiliki kemampuan “pemahaman” yang sebenarnya. Model besar hanya mencari pola statistik dari data dalam jumlah besar. Ketika menghadapi pertanyaan yang tidak diketahui atau informasi yang ambigu, mereka akan melakukan “penyusunan yang masuk akal” berdasarkan pola umum dalam data pelatihan, dan ini adalah penyebab utama munculnya ilusi AI. Kesalahan yang muncul saat wartawan bertanya dan menanyakan kembali kepada model besar berasal dari ilusi AI tersebut.
Xiaohui juga menyatakan bahwa “meracuni” AI juga memanfaatkan ilusi AI, yaitu dengan “GEO perusahaan” yang secara massal memberi makan informasi palsu ke internet, mengubah distribusi data dan probabilitas statistik di bidang tertentu, sehingga memancing model besar menghasilkan jawaban yang sesuai dengan kepentingan pelaku usaha tetapi bertentangan dengan fakta.
Dia mengingatkan bahwa masyarakat harus berhati-hati terhadap ilusi AI. Model besar bukan tidak bisa digunakan, tetapi harus digunakan secara aman, sadar, dan benar. Orang awam harus memiliki kesadaran untuk meragukan hasil yang diberikan AI besar. Yang paling sederhana adalah mengingat empat kata kunci: “batasan, verifikasi, tanyakan kembali, pemeriksaan”.
Pertama, saat mengajukan pertanyaan ke model besar, batasi lingkupnya, tambahkan kata-kata seperti “cari di situs resmi lembaga tertentu” atau “cari di laporan media otoritatif tertentu” untuk mengurangi ilusi AI.
Kedua, ajukan pertanyaan yang sama ke beberapa model besar berbeda untuk melakukan verifikasi silang. Jika jawaban berbeda, segera lakukan pertanyaan lanjutan.
Terakhir, minta model besar menyediakan tautan referensi terkait jawaban, lalu lakukan penelusuran manual. Jika tidak ada sumber yang pasti, sumbernya samar, atau tautan referensi meragukan, kepercayaan terhadap jawaban model besar tersebut akan semakin berkurang.
Selain itu, perhatikan juga penggunaan model AI besar dalam berbagai skenario. Misalnya, dalam diagnosis medis, saran pengobatan, keputusan hukum, panduan investasi, dan kredit keuangan yang berisiko tinggi, jawaban AI harus dianggap “hanya sebagai referensi”, dan tidak boleh dijadikan dasar pengambilan keputusan.
Redaktur: Sun Fei