Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Menggunakan Chatbot AI Anda Sebagai Mesin Pencari? Hati-hati Dengan Apa Yang Anda Percayai
(MENAFN- The Conversation) Selama Perang Dunia Pertama, pemerintah Inggris mencari cara untuk membantu orang memperpanjang pasokan makanan yang terbatas. Mereka menemukan brosur dari seorang herbalist terkenal abad ke-19 yang mengatakan bahwa daun rhubarb bisa digunakan sebagai sayuran bersama batangnya.
Pemerintah pun mencetak brosur sendiri yang menyarankan orang untuk makan daun rhubarb sebagai salad daripada membuangnya. Ada satu masalah: daun rhubarb bisa beracun. Dilaporkan ada orang yang meninggal atau jatuh sakit.
Saran tersebut dikoreksi dan brosur dicabut dari peredaran. Tapi selama Perang Dunia Kedua, pemerintah kembali mencari cara untuk memperpanjang pasokan makanan.
Mereka menemukan stok sumber daya lama dari perang sebelumnya yang menjelaskan sumber makanan yang tidak konvensional, termasuk daun rhubarb. Menggunakan kembali brosur tersebut tampak efisien, jadi mereka disebarkan ke masyarakat. Sekali lagi, dilaporkan ada orang yang meninggal atau jatuh sakit.
Brosur-brosur itu adalah informasi yang salah, tetapi masyarakat tidak punya alasan untuk meragukannya dua kali. Itu adalah sumber resmi yang dikembangkan oleh pemerintah – mengapa tidak aman?
Begitulah misinformation bisa menyebabkan masalah bahkan setelah kesalahan awal diperbaiki. Dan pelajaran dari cerita ini tetap relevan di era kecerdasan buatan generatif (AI).
Chatbot Bukan Mesin Pencari
AI generatif digunakan untuk menghasilkan teks dan gambar (dan bentuk data lain) berdasarkan informasi asli yang telah dipelajari. Tapi AI ini juga bisa menjadi mesin untuk menyebarkan misinformation lebih cepat daripada orang bisa menghasilkan informasi yang aman, apalagi memeriksa fakta dan memperbaikinya.
Seperti yang ditunjukkan oleh cerita daun rhubarb, koreksi tidak selalu mampu menghapus kontaminasi awal secara sempurna.
Platform AI seperti ChatGPT dan Claude tidak bekerja seperti mesin pencari konvensional. Tapi orang menggunakannya sebagai pengganti karena mereka tampak mampu merangkum topik kompleks dengan cepat dan membutuhkan lebih sedikit klik dibanding pencarian internet biasa.
Mesin pencari mengandalkan artikel dan teks tentang suatu topik, lalu menilai seberapa dapat dipercaya artikel tersebut. AI generatif justru bergantung pada kumpulan teks besar, dari mana ia mengukur kemungkinan kata-kata muncul berdampingan.
Model bahasa besar ini hanya bertujuan menghasilkan kalimat yang tampak masuk akal, bukan yang benar secara faktual.
Misalnya, jika “telur dan ham hijau” muncul cukup sering dalam kumpulan kata-katanya, kemungkinan besar ia akan mendeskripsikan “telur dan ham” sebagai hijau jika seseorang bertanya.
‘Plausibel tapi salah’
OpenAI, yang mengembangkan ChatGPT, mengakui (berdasarkan studi mereka sendiri) bahwa tidak ada cara untuk menghentikan penyajian informasi palsu sebagai kebenaran karena cara kerja AI generatif. Menjelaskan mengapa model bahasa besar “berhalusinasi”, para peneliti menulis:
Ini bisa memiliki konsekuensi nyata di dunia nyata. Sebuah studi terbaru menunjukkan ChatGPT gagal mengenali keadaan darurat medis dalam lebih dari setengah kasus. Hal ini bisa diperburuk oleh kesalahan yang sudah ada dalam catatan medis, yang menurut penyelidikan di Inggris pada 2025 mempengaruhi hingga satu dari empat pasien.
Meskipun seorang dokter mungkin memerintahkan lebih banyak tes untuk memastikan diagnosis, satu peneliti menjelaskan bahwa AI generatif “memberikan jawaban yang salah dengan tingkat kepercayaan yang sama seperti jawaban yang benar”.
Masalahnya, seperti yang dicatat oleh ilmuwan lain, adalah bahwa AI generatif “menemukan dan meniru pola kata-kata”. Benar atau salah bukanlah poin utama: “Seharusnya membuat kalimat dan itu dilakukan.”
Penelitian menunjukkan bahwa alat AI generatif menyalahartikan berita 45% dari waktu, tanpa memandang bahasa atau wilayah geografis. Dan kini ada kekhawatiran nyata bahwa AI berisiko membahayakan nyawa dengan menghasilkan jalur pendakian yang tidak ada.
Mudah untuk mengejek AI generatif saat menyarankan orang makan batu atau menempelkan topping pizza dengan lem.
Tapi contoh lain tidak begitu menggelikan – seperti perencana makanan supermarket yang menyarankan resep yang akan menghasilkan gas klorin, atau saran diet yang menyebabkan seseorang mengalami paparan toksik kronis terhadap bromida.
Cari informasi lama
Pendidikan dan penetapan aturan yang baik tentang penggunaan AI generatif secara hati-hati akan sangat penting, terutama saat teknologi ini mulai masuk ke pemerintahan, birokrasi, dan organisasi kompleks.
Politikus sudah menggunakan AI generatif dalam pekerjaan sehari-hari mereka, termasuk untuk riset kebijakan. Dan departemen darurat rumah sakit menggunakan alat AI untuk mencatat catatan pasien agar menghemat waktu.
Salah satu langkah pengamanan adalah mencoba mendapatkan informasi yang lebih dapat diandalkan yang diproduksi sebelum teks dan gambar yang terkontaminasi AI menyusup ke internet.
Ada bahkan alat yang tersedia untuk membantu menyederhanakan proses tersebut, termasuk yang dibuat oleh seniman Australia, Tega Brain, “yang hanya akan mengembalikan konten yang dibuat sebelum peluncuran publik pertama ChatGPT pada 30 November 2022”.
Akhirnya, jika naluri Anda adalah memeriksa fakta cerita di awal artikel ini, buku-buku kuno mungkin menjadi pilihan terbaik: referensi tentang bagaimana pemerintah Inggris dua kali mendorong keracunan rhubarb dapat ditemukan dalam A-Z of Poisonous Plants dan Botanical Curses and Poisons: The Shadow Lives of Plants.