Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Setengah dari Nasihat Kesehatan AI Salah—Dan Terlihat Benar Saja
Singkatnya
Hampir setengah dari jawaban kesehatan dan medis yang diberikan oleh chatbot AI paling populer saat ini salah, menyesatkan, atau berbahaya dan mereka disampaikan dengan kepercayaan diri penuh. Itulah temuan utama dari studi peer-review baru yang diterbitkan 14 April di BMJ Open. Peneliti dari UCLA, Universitas Alberta, dan Wake Forest menguji lima chatbot—Gemini, DeepSeek, Meta AI, ChatGPT, dan Grok—pada 250 pertanyaan kesehatan yang mencakup kanker, vaksin, sel punca, nutrisi, dan performa atletik. Hasilnya: 49,6% dari respons bermasalah. Tiga puluh persen adalah “agak bermasalah,” dan 19,6% adalah “sangat bermasalah”—jenis jawaban yang secara plausibel dapat menuntun seseorang ke pengobatan yang tidak efektif atau berbahaya. Untuk menguji ketahanan model, tim menggunakan pendekatan adversarial—mengajukan pertanyaan secara sengaja untuk mendorong chatbot memberikan nasihat buruk. Pertanyaan termasuk apakah 5G menyebabkan kanker, terapi alternatif mana yang lebih baik dari kemoterapi, dan berapa banyak susu mentah yang harus diminum untuk manfaat kesehatan.
“Secara default, chatbot tidak mengakses data waktu nyata tetapi menghasilkan output dengan menginferensikan pola statistik dari data pelatihan mereka dan memprediksi urutan kata yang kemungkinan besar,” tulis penulis. “Mereka tidak bernalar atau menimbang bukti, dan mereka juga tidak mampu membuat penilaian etis atau berbasis nilai.” Itulah inti masalahnya. Chatbot tidak berkonsultasi dengan dokter—mereka hanya mencocokkan pola teks. Dan mencocokkan pola di internet, di mana misinformasi menyebar lebih cepat daripada koreksi, menghasilkan output seperti ini. Para peneliti melanjutkan: “Keterbatasan perilaku ini berarti bahwa chatbot dapat mereproduksi respons yang terdengar otoritatif tetapi berpotensi keliru.” Dari 250 pertanyaan, hanya dua yang menolak untuk menjawab—keduanya dari Meta AI, tentang steroid anabolik dan pengobatan alternatif kanker. Semua chatbot lainnya tetap berbicara.
Performa bervariasi tergantung topik. Vaksin dan kanker paling baik—sebagian karena penelitian berkualitas tinggi tentang topik tersebut tersusun dengan baik dan banyak diproduksi ulang secara online. Nutrisi memiliki performa statistik terburuk dari semua kategori dalam studi ini, dengan performa atletik sedikit di belakang. Jika Anda bertanya kepada AI apakah diet karnivora sehat, jawaban yang Anda terima mungkin tidak didasarkan pada konsensus ilmiah.
Grok menonjol karena alasan yang salah. Chatbot milik Elon Musk ini adalah yang terburuk dari semua model yang diuji. Dari 50 responsnya, 29 (58%) dinilai bermasalah secara keseluruhan—persentase tertinggi di antara kelima chatbot. Lima belas di antaranya (30%) sangat bermasalah, jauh lebih banyak dari yang diharapkan secara statistik dalam distribusi acak. Para peneliti mengaitkan ini langsung dengan data pelatihan Grok: X adalah platform yang dikenal karena menyebarkan misinformasi kesehatan secara cepat dan luas. Sumber kutipan menjadi bencana tersendiri. Di semua model, skor kelengkapan median untuk referensi hanya 40%—dan tidak satu pun chatbot yang menghasilkan daftar referensi yang sepenuhnya akurat. Model-model ini berhalusinasi tentang penulis, jurnal, dan judul. DeepSeek bahkan mengakuinya: Model mengatakan kepada peneliti bahwa referensinya dihasilkan dari pola data pelatihan “dan mungkin tidak sesuai dengan sumber yang sebenarnya dan dapat diverifikasi.” Masalah keterbacaan memperburuk semuanya. Semua respons chatbot mendapatkan skor dalam kategori “Sulit” pada skala Kemudahan Membaca Flesch—setara dengan tingkat mahasiswa tingkat dua hingga senior. Itu melebihi rekomendasi Asosiasi Medis Amerika bahwa materi edukasi pasien tidak boleh melebihi tingkat membaca kelas enam. Dengan kata lain, chatbot ini menerapkan trik yang sama yang sering dilakukan politisi dan debater profesional: menyemprotkan begitu banyak kata teknis dalam waktu singkat sehingga Anda akhirnya berpikir mereka tahu lebih dari yang sebenarnya mereka ketahui. Semakin sulit sesuatu dipahami, semakin mudah disalahpahami. Temuan ini sejalan dengan studi Oxford Februari 2026 yang diliput oleh Decrypt yang menemukan bahwa nasihat medis AI tidak lebih baik dari metode diagnosis mandiri tradisional. Mereka juga sejalan dengan kekhawatiran yang lebih luas tentang chatbot AI yang memberikan panduan yang tidak konsisten tergantung bagaimana pertanyaan diajukan. “Seiring penggunaan chatbot AI terus berkembang, data kami menyoroti perlunya pendidikan masyarakat, pelatihan profesional, dan pengawasan regulasi untuk memastikan bahwa AI generatif mendukung, bukan merusak, kesehatan masyarakat,” simpul penulis.
Studi ini hanya menguji lima chatbot gratis, dan metode prompting adversarial mungkin melebih-lebihkan tingkat kegagalan di dunia nyata. Tapi penulis secara tegas menyatakan: masalahnya bukan pada kasus pinggiran. Masalahnya adalah model ini digunakan secara massal, oleh non-ahli sebagai mesin pencari, dan dikonfigurasi—secara desain—untuk hampir tidak pernah mengatakan “Saya tidak tahu.”