Lebih Ekstrem dari "Poisoning AI" Pengujian 4 Model Besar: Ada AI yang Mengatakan Acara Gala 315 Tahun Ini Belum Diselenggarakan

robot
Pembuatan abstrak sedang berlangsung

(Sumber: Ningbo Net, China)

Dikutip dari: Ningbo Net, China

Pertunjukan “3·15” CCTV tahun 2026 disiarkan pada malam 15 Maret. Di antaranya, bisnis “menyuntikkan racun ke model besar AI” GEO (pengoptimalan mesin generatif) terungkap, banyak orang baru menyadari bahwa membuat AI merekomendasikan hal yang tidak dapat dipercaya karena pelaku usaha ilegal akan secara massal membuat ulasan palsu, memalsukan rekomendasi dari otoritas, dan “memberi makan” ke model besar agar AI memberikan “rekomendasi yang disesuaikan”.

Namun, ada juga konsumen yang setelah melihat kasus terungkap bertanya: jika tidak menanyakan kepada model besar AI tentang “merek mana yang bagus” atau “layanan mana yang populer” yang bersifat subjektif, dan hanya menanyakan tentang fakta objektif, apakah jawaban dari model besar AI bisa dipercaya?

Jawabannya juga sama tidak percaya.

Tanya Jawab Model Besar, Semakin Banyak Salah

Pada 16 Maret, wartawan melakukan tes sederhana terhadap 4 model besar AI yang paling sering digunakan oleh konsumen: mereka mengajukan pertanyaan yang sama, “Merek apa saja yang terungkap di acara ‘3·15’ CCTV tahun 2026?” Hasilnya, hanya satu model yang menjawab dengan benar. Dari tiga model lainnya, dua di antaranya menjawab tidak hanya kasus tahun ini, tetapi juga kasus dari tahun-tahun sebelumnya; satu lagi jawaban yang paling tidak masuk akal, bahkan menyatakan “Acara ‘3·15’ CCTV tahun 2026 saat ini belum diselenggarakan. Karena hari ini tanggal 16 Maret 2026, jika acara tersebut sudah disiarkan secara normal pada 15 Maret, maka berita terkait biasanya akan dipublikasikan secara bersamaan di saluran keuangan CCTV, aplikasi berita CCTV, dan berbagai platform media.”

Model besar yang menjawab benar (cuplikan jawaban sebagian, sama di bawah)

Dua model besar menganggap kasus tahun ini dan tahun sebelumnya sebagai satu

Ada model besar yang menjawab: Belum diselenggarakan

Seorang konsumen mengusulkan bahwa jawaban yang mencakup kasus dari tahun sebelumnya tampaknya tidak sepenuhnya salah karena “laporan lengkap”. Tetapi para teknisi menyatakan ini jelas menunjukkan kekurangan dari model besar terkait: pertanyaan yang diajukan memiliki “jawaban standar”, tetapi model besar menjawab salah, menunjukkan adanya bias serius dalam pemahaman semantik dan penyaringan data.

Menanggapi pertanyaan lanjutan dari wartawan, kedua model besar yang “terlalu antusias” ini juga menunjukkan masalah lain.

“Penggunaan bahan pengembang (alias ‘bubuk obat’) untuk menambah berat udang” adalah salah satu kasus yang diungkapkan dalam acara ‘3·15’ CCTV tahun lalu. Jadi, wartawan bertanya kepada dua model besar yang menjadikan kasus ini sebagai contoh tahun ini: “Di mana tautan laporan CCTV tentang penambahan berat udang?” Salah satu model memberikan beberapa tautan, termasuk “Rekaman lengkap acara ‘3·15’ CCTV”, “Laporan khusus berita CCTV (teks + video)”, “Halaman khusus CCTV keuangan ‘3·15’”, yang terlihat cukup meyakinkan. Tetapi setelah wartawan mengklik tautan terkait, semua halaman menampilkan pesan “Maaf, mungkin karena masalah jaringan atau halaman ini tidak ada, silakan coba lagi nanti”. Bahkan jika menyalin tautan ke browser, tetap tidak bisa dibuka. Terlihat bahwa tautan yang diberikan model besar tidak cukup untuk memverifikasi jawaban mereka.

Tautan verifikasi dari model besar menunjukkan berasal dari CCTV, tampak sangat meyakinkan, tetapi sebenarnya tidak bisa dibuka (cuplikan layar web)

Model besar lainnya menyediakan tautan dari berbagai sumber seperti CCTV, Baijiahao, NetEase News, dan lain-lain. Setelah diuji, semua tautan dapat dibuka, tetapi muncul masalah baru.

Tautan pertama dari model besar berasal dari laporan resmi CCTV (CCTV), berisi tentang “udang pengembang”, tetapi tanggal di halaman dan isi semuanya tertulis 15 Maret 2025. Model besar tampaknya menyadari hal ini dan saat memberikan tautan, menambahkan catatan: “Dalam beberapa hasil pencarian, tahun tautan ini menunjukkan 2025, tetapi isinya adalah laporan acara tahun 2026, mungkin karena arsip situs atau aturan pembuatan URL, silakan merujuk pada isi halaman yang sebenarnya.” Terlihat bahwa model besar ini tidak hanya gagal menyadari kesalahan jawaban mereka, tetapi juga berusaha membela diri.

Model besar berusaha “membela diri” (cuplikan layar web)

Tautan kedua dari model besar adalah sebuah artikel interpretasi dari media independen tentang acara ‘3·15’ tahun ini, yang kredibilitasnya patut dipertanyakan. Isi artikel ini juga penuh kesalahan, yang paling mencolok adalah klaim bahwa kasus pertama yang terungkap di acara ‘3·15’ 2026 adalah “udang pengembang”—yang juga menjelaskan mengapa model besar menjadikannya sebagai tautan referensi. Wartawan juga memeriksa tingkat AI dari artikel interpretasi ini menggunakan alat deteksi, dan dinyatakan memiliki “ciri-ciri karya manusia yang lemah”. Dengan kata lain, artikel ini kemungkinan besar dibuat oleh model besar, sehingga kasus yang dibahas pun menyimpang.

Kesalahan dalam artikel interpretasi media independen (cuplikan layar web)

Setelah diperiksa, jejak AI dalam artikel interpretasi media independen cukup kuat (cuplikan layar web)

Ilusi AI Terus Berkembang, Verifikasi Adalah Kunci Kebenaran

“Banyak pengguna model besar AI sudah menyadari bahwa untuk memenuhi pengguna, AI sering kali membuat konten yang tidak ada, atau mencampuradukkan konten yang tidak relevan, dan ‘berpura-pura tahu’ secara serius. Meskipun para pengembang model besar sedang berusaha menghilangkan ilusi AI ini, hasilnya belum memuaskan. Saat ini, belum ada satu pun model AI umum yang benar-benar mampu menghilangkan ilusi AI secara mendasar,” jelas Xiaohui yang bekerja di perusahaan teknologi dan mengembangkan model besar.

Prinsip dasar dari model besar adalah berbasis probabilitas dalam menghasilkan konten, dan mereka tidak memiliki kemampuan “pemahaman” yang sebenarnya. Model besar hanya mencari pola statistik dari data dalam jumlah besar. Ketika menghadapi pertanyaan yang tidak diketahui atau informasi yang ambigu, mereka akan melakukan “penyusunan yang masuk akal” berdasarkan pola umum dalam data pelatihan, dan ini adalah akar dari munculnya ilusi AI. Kesalahan yang muncul saat wartawan bertanya dan menanyakan lagi kepada model besar berasal dari ilusi AI ini.

Xiaohui juga menyatakan bahwa “menyuntikkan racun” ke AI juga memanfaatkan ilusi AI, yaitu dengan “GEO perusahaan” yang memberi makan internet secara massal dengan informasi palsu, mengubah distribusi data dan probabilitas statistik di bidang tertentu, sehingga memancing model besar menghasilkan jawaban yang menguntungkan pelaku usaha tetapi bertentangan dengan fakta.

Dia mengingatkan bahwa masyarakat harus berhati-hati terhadap ilusi AI. Model besar tidak tidak bisa digunakan, tetapi harus digunakan secara aman, sadar, dan benar. Orang awam harus bersikap skeptis terhadap hasil yang diberikan oleh model besar AI. Yang paling sederhana adalah mengingat empat kata kunci: “batasan, verifikasi, tanya ulang, pemeriksaan.”

Pertama, saat mengajukan pertanyaan ke model besar, batasi ruang lingkupnya, tambahkan kata-kata seperti “cari di situs resmi lembaga tertentu” atau “cari di laporan media otoritatif tertentu” untuk mengurangi ilusi AI.

Kedua, ajukan pertanyaan yang sama ke berbagai model besar secara bersamaan untuk melakukan verifikasi silang. Jika jawaban berbeda, segera lakukan tanya ulang.

Terakhir, minta model besar menyediakan tautan referensi jawaban terkait, lalu lakukan penelusuran manual. Jika tidak ada sumber yang pasti, sumbernya tidak jelas, atau tautan referensi meragukan, maka kepercayaan terhadap jawaban model besar akan semakin berkurang.

Selain itu, perhatikan juga penggunaan model besar AI dalam berbagai skenario. Misalnya, dalam diagnosis medis, saran pengobatan, keputusan hukum, panduan investasi, dan kredit keuangan yang berisiko tinggi, jawaban AI harus dianggap “hanya sebagai referensi” dan tidak boleh dijadikan dasar pengambilan keputusan.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan