Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Lebih Ekstrem dari "Poisoning AI" Pengujian 4 Model Besar: Ada AI yang Mengatakan Acara Gala 315 Tahun Ini Belum Diselenggarakan
(Sumber: Ningbo Net, China)
Dikutip dari: Ningbo Net, China
Pertunjukan “3·15” CCTV tahun 2026 disiarkan pada malam 15 Maret. Di antaranya, bisnis “menyuntikkan racun ke model besar AI” GEO (pengoptimalan mesin generatif) terungkap, banyak orang baru menyadari bahwa membuat AI merekomendasikan hal yang tidak dapat dipercaya karena pelaku usaha ilegal akan secara massal membuat ulasan palsu, memalsukan rekomendasi dari otoritas, dan “memberi makan” ke model besar agar AI memberikan “rekomendasi yang disesuaikan”.
Namun, ada juga konsumen yang setelah melihat kasus terungkap bertanya: jika tidak menanyakan kepada model besar AI tentang “merek mana yang bagus” atau “layanan mana yang populer” yang bersifat subjektif, dan hanya menanyakan tentang fakta objektif, apakah jawaban dari model besar AI bisa dipercaya?
Jawabannya juga sama tidak percaya.
Tanya Jawab Model Besar, Semakin Banyak Salah
Pada 16 Maret, wartawan melakukan tes sederhana terhadap 4 model besar AI yang paling sering digunakan oleh konsumen: mereka mengajukan pertanyaan yang sama, “Merek apa saja yang terungkap di acara ‘3·15’ CCTV tahun 2026?” Hasilnya, hanya satu model yang menjawab dengan benar. Dari tiga model lainnya, dua di antaranya menjawab tidak hanya kasus tahun ini, tetapi juga kasus dari tahun-tahun sebelumnya; satu lagi jawaban yang paling tidak masuk akal, bahkan menyatakan “Acara ‘3·15’ CCTV tahun 2026 saat ini belum diselenggarakan. Karena hari ini tanggal 16 Maret 2026, jika acara tersebut sudah disiarkan secara normal pada 15 Maret, maka berita terkait biasanya akan dipublikasikan secara bersamaan di saluran keuangan CCTV, aplikasi berita CCTV, dan berbagai platform media.”
Model besar yang menjawab benar (cuplikan jawaban sebagian, sama di bawah)
Dua model besar menganggap kasus tahun ini dan tahun sebelumnya sebagai satu
Ada model besar yang menjawab: Belum diselenggarakan
Seorang konsumen mengusulkan bahwa jawaban yang mencakup kasus dari tahun sebelumnya tampaknya tidak sepenuhnya salah karena “laporan lengkap”. Tetapi para teknisi menyatakan ini jelas menunjukkan kekurangan dari model besar terkait: pertanyaan yang diajukan memiliki “jawaban standar”, tetapi model besar menjawab salah, menunjukkan adanya bias serius dalam pemahaman semantik dan penyaringan data.
Menanggapi pertanyaan lanjutan dari wartawan, kedua model besar yang “terlalu antusias” ini juga menunjukkan masalah lain.
“Penggunaan bahan pengembang (alias ‘bubuk obat’) untuk menambah berat udang” adalah salah satu kasus yang diungkapkan dalam acara ‘3·15’ CCTV tahun lalu. Jadi, wartawan bertanya kepada dua model besar yang menjadikan kasus ini sebagai contoh tahun ini: “Di mana tautan laporan CCTV tentang penambahan berat udang?” Salah satu model memberikan beberapa tautan, termasuk “Rekaman lengkap acara ‘3·15’ CCTV”, “Laporan khusus berita CCTV (teks + video)”, “Halaman khusus CCTV keuangan ‘3·15’”, yang terlihat cukup meyakinkan. Tetapi setelah wartawan mengklik tautan terkait, semua halaman menampilkan pesan “Maaf, mungkin karena masalah jaringan atau halaman ini tidak ada, silakan coba lagi nanti”. Bahkan jika menyalin tautan ke browser, tetap tidak bisa dibuka. Terlihat bahwa tautan yang diberikan model besar tidak cukup untuk memverifikasi jawaban mereka.
Tautan verifikasi dari model besar menunjukkan berasal dari CCTV, tampak sangat meyakinkan, tetapi sebenarnya tidak bisa dibuka (cuplikan layar web)
Model besar lainnya menyediakan tautan dari berbagai sumber seperti CCTV, Baijiahao, NetEase News, dan lain-lain. Setelah diuji, semua tautan dapat dibuka, tetapi muncul masalah baru.
Tautan pertama dari model besar berasal dari laporan resmi CCTV (CCTV), berisi tentang “udang pengembang”, tetapi tanggal di halaman dan isi semuanya tertulis 15 Maret 2025. Model besar tampaknya menyadari hal ini dan saat memberikan tautan, menambahkan catatan: “Dalam beberapa hasil pencarian, tahun tautan ini menunjukkan 2025, tetapi isinya adalah laporan acara tahun 2026, mungkin karena arsip situs atau aturan pembuatan URL, silakan merujuk pada isi halaman yang sebenarnya.” Terlihat bahwa model besar ini tidak hanya gagal menyadari kesalahan jawaban mereka, tetapi juga berusaha membela diri.
Model besar berusaha “membela diri” (cuplikan layar web)
Tautan kedua dari model besar adalah sebuah artikel interpretasi dari media independen tentang acara ‘3·15’ tahun ini, yang kredibilitasnya patut dipertanyakan. Isi artikel ini juga penuh kesalahan, yang paling mencolok adalah klaim bahwa kasus pertama yang terungkap di acara ‘3·15’ 2026 adalah “udang pengembang”—yang juga menjelaskan mengapa model besar menjadikannya sebagai tautan referensi. Wartawan juga memeriksa tingkat AI dari artikel interpretasi ini menggunakan alat deteksi, dan dinyatakan memiliki “ciri-ciri karya manusia yang lemah”. Dengan kata lain, artikel ini kemungkinan besar dibuat oleh model besar, sehingga kasus yang dibahas pun menyimpang.
Kesalahan dalam artikel interpretasi media independen (cuplikan layar web)
Setelah diperiksa, jejak AI dalam artikel interpretasi media independen cukup kuat (cuplikan layar web)
Ilusi AI Terus Berkembang, Verifikasi Adalah Kunci Kebenaran
“Banyak pengguna model besar AI sudah menyadari bahwa untuk memenuhi pengguna, AI sering kali membuat konten yang tidak ada, atau mencampuradukkan konten yang tidak relevan, dan ‘berpura-pura tahu’ secara serius. Meskipun para pengembang model besar sedang berusaha menghilangkan ilusi AI ini, hasilnya belum memuaskan. Saat ini, belum ada satu pun model AI umum yang benar-benar mampu menghilangkan ilusi AI secara mendasar,” jelas Xiaohui yang bekerja di perusahaan teknologi dan mengembangkan model besar.
Prinsip dasar dari model besar adalah berbasis probabilitas dalam menghasilkan konten, dan mereka tidak memiliki kemampuan “pemahaman” yang sebenarnya. Model besar hanya mencari pola statistik dari data dalam jumlah besar. Ketika menghadapi pertanyaan yang tidak diketahui atau informasi yang ambigu, mereka akan melakukan “penyusunan yang masuk akal” berdasarkan pola umum dalam data pelatihan, dan ini adalah akar dari munculnya ilusi AI. Kesalahan yang muncul saat wartawan bertanya dan menanyakan lagi kepada model besar berasal dari ilusi AI ini.
Xiaohui juga menyatakan bahwa “menyuntikkan racun” ke AI juga memanfaatkan ilusi AI, yaitu dengan “GEO perusahaan” yang memberi makan internet secara massal dengan informasi palsu, mengubah distribusi data dan probabilitas statistik di bidang tertentu, sehingga memancing model besar menghasilkan jawaban yang menguntungkan pelaku usaha tetapi bertentangan dengan fakta.
Dia mengingatkan bahwa masyarakat harus berhati-hati terhadap ilusi AI. Model besar tidak tidak bisa digunakan, tetapi harus digunakan secara aman, sadar, dan benar. Orang awam harus bersikap skeptis terhadap hasil yang diberikan oleh model besar AI. Yang paling sederhana adalah mengingat empat kata kunci: “batasan, verifikasi, tanya ulang, pemeriksaan.”
Pertama, saat mengajukan pertanyaan ke model besar, batasi ruang lingkupnya, tambahkan kata-kata seperti “cari di situs resmi lembaga tertentu” atau “cari di laporan media otoritatif tertentu” untuk mengurangi ilusi AI.
Kedua, ajukan pertanyaan yang sama ke berbagai model besar secara bersamaan untuk melakukan verifikasi silang. Jika jawaban berbeda, segera lakukan tanya ulang.
Terakhir, minta model besar menyediakan tautan referensi jawaban terkait, lalu lakukan penelusuran manual. Jika tidak ada sumber yang pasti, sumbernya tidak jelas, atau tautan referensi meragukan, maka kepercayaan terhadap jawaban model besar akan semakin berkurang.
Selain itu, perhatikan juga penggunaan model besar AI dalam berbagai skenario. Misalnya, dalam diagnosis medis, saran pengobatan, keputusan hukum, panduan investasi, dan kredit keuangan yang berisiko tinggi, jawaban AI harus dianggap “hanya sebagai referensi” dan tidak boleh dijadikan dasar pengambilan keputusan.