Menggunakan Chatbot AI Anda Sebagai Mesin Pencari? Hati-hati Dengan Apa Yang Anda Percayai

(MENAFN- The Conversation) Selama Perang Dunia Pertama, pemerintah Inggris mencari cara untuk membantu orang memperpanjang pasokan makanan yang terbatas. Mereka menemukan brosur dari seorang herbalist terkenal abad ke-19 yang mengatakan bahwa daun rhubarb bisa digunakan sebagai sayuran bersama batangnya.

Pemerintah pun mencetak brosur sendiri yang menyarankan orang untuk makan daun rhubarb sebagai salad daripada membuangnya. Ada satu masalah: daun rhubarb bisa beracun. Dilaporkan ada orang yang meninggal atau jatuh sakit.

Saran tersebut dikoreksi dan brosur dicabut dari peredaran. Tapi selama Perang Dunia Kedua, pemerintah kembali mencari cara untuk memperpanjang pasokan makanan.

Mereka menemukan stok sumber daya lama dari perang sebelumnya yang menjelaskan sumber makanan yang tidak konvensional, termasuk daun rhubarb. Menggunakan kembali brosur tersebut tampak efisien, jadi mereka disebarkan ke masyarakat. Sekali lagi, dilaporkan ada orang yang meninggal atau jatuh sakit.

Brosur-brosur itu adalah informasi yang salah, tetapi masyarakat tidak punya alasan untuk meragukannya dua kali. Itu adalah sumber resmi yang dikembangkan oleh pemerintah – mengapa tidak aman?

Begitulah misinformation bisa menyebabkan masalah bahkan setelah kesalahan awal diperbaiki. Dan pelajaran dari cerita ini tetap relevan di era kecerdasan buatan generatif (AI).

Chatbot Bukan Mesin Pencari

AI generatif digunakan untuk menghasilkan teks dan gambar (dan bentuk data lain) berdasarkan informasi asli yang telah dipelajari. Tapi AI ini juga bisa menjadi mesin untuk menyebarkan misinformation lebih cepat daripada orang bisa menghasilkan informasi yang aman, apalagi memeriksa fakta dan memperbaikinya.

Seperti yang ditunjukkan oleh cerita daun rhubarb, koreksi tidak selalu mampu menghapus kontaminasi awal secara sempurna.

Platform AI seperti ChatGPT dan Claude tidak bekerja seperti mesin pencari konvensional. Tapi orang menggunakannya sebagai pengganti karena mereka tampak mampu merangkum topik kompleks dengan cepat dan membutuhkan lebih sedikit klik dibanding pencarian internet biasa.

Mesin pencari mengandalkan artikel dan teks tentang suatu topik, lalu menilai seberapa dapat dipercaya artikel tersebut. AI generatif justru bergantung pada kumpulan teks besar, dari mana ia mengukur kemungkinan kata-kata muncul berdampingan.

Model bahasa besar ini hanya bertujuan menghasilkan kalimat yang tampak masuk akal, bukan yang benar secara faktual.

Misalnya, jika “telur dan ham hijau” muncul cukup sering dalam kumpulan kata-katanya, kemungkinan besar ia akan mendeskripsikan “telur dan ham” sebagai hijau jika seseorang bertanya.

‘Plausibel tapi salah’

OpenAI, yang mengembangkan ChatGPT, mengakui (berdasarkan studi mereka sendiri) bahwa tidak ada cara untuk menghentikan penyajian informasi palsu sebagai kebenaran karena cara kerja AI generatif. Menjelaskan mengapa model bahasa besar “berhalusinasi”, para peneliti menulis:

Ini bisa memiliki konsekuensi nyata di dunia nyata. Sebuah studi terbaru menunjukkan ChatGPT gagal mengenali keadaan darurat medis dalam lebih dari setengah kasus. Hal ini bisa diperburuk oleh kesalahan yang sudah ada dalam catatan medis, yang menurut penyelidikan di Inggris pada 2025 mempengaruhi hingga satu dari empat pasien.

Meskipun seorang dokter mungkin memerintahkan lebih banyak tes untuk memastikan diagnosis, satu peneliti menjelaskan bahwa AI generatif “memberikan jawaban yang salah dengan tingkat kepercayaan yang sama seperti jawaban yang benar”.

Masalahnya, seperti yang dicatat oleh ilmuwan lain, adalah bahwa AI generatif “menemukan dan meniru pola kata-kata”. Benar atau salah bukanlah poin utama: “Seharusnya membuat kalimat dan itu dilakukan.”

Penelitian menunjukkan bahwa alat AI generatif menyalahartikan berita 45% dari waktu, tanpa memandang bahasa atau wilayah geografis. Dan kini ada kekhawatiran nyata bahwa AI berisiko membahayakan nyawa dengan menghasilkan jalur pendakian yang tidak ada.

Mudah untuk mengejek AI generatif saat menyarankan orang makan batu atau menempelkan topping pizza dengan lem.

Tapi contoh lain tidak begitu menggelikan – seperti perencana makanan supermarket yang menyarankan resep yang akan menghasilkan gas klorin, atau saran diet yang menyebabkan seseorang mengalami paparan toksik kronis terhadap bromida.

Cari informasi lama

Pendidikan dan penetapan aturan yang baik tentang penggunaan AI generatif secara hati-hati akan sangat penting, terutama saat teknologi ini mulai masuk ke pemerintahan, birokrasi, dan organisasi kompleks.

Politikus sudah menggunakan AI generatif dalam pekerjaan sehari-hari mereka, termasuk untuk riset kebijakan. Dan departemen darurat rumah sakit menggunakan alat AI untuk mencatat catatan pasien agar menghemat waktu.

Salah satu langkah pengamanan adalah mencoba mendapatkan informasi yang lebih dapat diandalkan yang diproduksi sebelum teks dan gambar yang terkontaminasi AI menyusup ke internet.

Ada bahkan alat yang tersedia untuk membantu menyederhanakan proses tersebut, termasuk yang dibuat oleh seniman Australia, Tega Brain, “yang hanya akan mengembalikan konten yang dibuat sebelum peluncuran publik pertama ChatGPT pada 30 November 2022”.

Akhirnya, jika naluri Anda adalah memeriksa fakta cerita di awal artikel ini, buku-buku kuno mungkin menjadi pilihan terbaik: referensi tentang bagaimana pemerintah Inggris dua kali mendorong keracunan rhubarb dapat ditemukan dalam A-Z of Poisonous Plants dan Botanical Curses and Poisons: The Shadow Lives of Plants.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan