Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
CFD
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 40+ model AI, dengan 0% biaya tambahan
Sebelum Kepala Berita Meta yang Baru Diselidiki: Hampir semua model AI cenderung politik kiri, Gemini pernah mengutip media resmi Partai Komunis Tiongkok
Di bawah Meta, kepala berita baru Campbell Brown mendirikan Forum AI, menghabiskan 17 bulan secara sistematis menilai kualitas informasi dari model AI arus utama, menemukan bahwa Gemini pernah merujuk ke situs resmi Partai Komunis Tiongkok saat menangani laporan yang tidak terkait Tiongkok, dan hampir semua model yang diuji menunjukkan kecenderungan politik kiri.
(Prakata: AI menghancurkan tradisi Universitas Princeton selama 133 tahun: Ketika “menyontek” secara perlahan menjadi kebiasaan)
(Latar belakang tambahan: 97.895 percakapan forum bawah tanah memberi tahu Anda: Komunitas hacker sebenarnya juga membenci AI)
Daftar isi artikel
Toggle
Brown adalah mantan jurnalis, pernah menjadi pembawa acara di CNN, kemudian beralih menjadi kepala berita Meta, langsung mengelola kebijakan bagaimana Facebook menampilkan berita kepada 3 miliar pengguna di seluruh dunia.
Posisi ini memberinya pandangan dekat tentang gambaran besar “bagaimana platform membentuk aliran informasi”. Dia meninggalkan Meta 17 bulan lalu, dan mendirikan Forum AI di New York, yang fokus pada satu hal yang umum dilewati perusahaan model fondasi: evaluasi sistematis apakah informasi yang diberikan AI akurat, adil, dan memiliki berbagai sudut pandang.
Masalah yang tidak diuji oleh siapa pun
Produk inti Forum AI adalah sebuah “kerangka acuan peristiwa geopolitik”.
Cara kerjanya: Forum AI mengundang sejumlah konsultan top dengan spektrum politik dan latar belakang profesional berbeda: Niall Ferguson, Fareed Zakaria, mantan Menteri Luar Negeri AS Tony Blinken, mantan Pemimpin Minoritas DPR Kevin McCarthy, mantan Penasehat Keamanan Nasional AS Anne Neuberger… untuk menilai satu per satu jawaban dari model AI arus utama terhadap peristiwa geopolitik yang kompleks tersebut.
Saat ini, Forum AI telah mencapai tingkat kesepakatan sekitar 90% dengan para ahli manusia, sehingga hasil penilaian Forum AI memiliki standar yang dapat diperdebatkan, bukan sekadar pandangan satu orang.
Masalah yang ditemukan Brown terbagi menjadi tiga tingkat, masing-masing lebih sulit diperbaiki dari sudut pandang teknis.
Tingkat pertama adalah celah logika dalam pemilihan sumber. Gemini, saat menangani laporan yang tidak terkait Tiongkok, merujuk ke konten dari situs resmi Partai Komunis Tiongkok. Ini bukan sekadar kesalahan fakta biasa, melainkan masalah logika penyaringan sumber: AI hanya menilai “ini teks, ini tautan”, tanpa menilai “posisi sumber ini apa, tingkat kepercayaannya bagaimana, apakah memiliki tujuan politik yang jelas”.
Politik dari sumber itu sendiri tidak terlihat dalam proses output AI.
Tingkat kedua adalah bias politik struktural. Hampir semua model arus utama yang diuji menunjukkan kecenderungan politik kiri. Ini bukan teori konspirasi, melainkan hasil alami dari distribusi data pelatihan. AI belajar dari teks apa pun, dan cenderung meniru nada dan kerangka posisi dari teks tersebut.
Konten utama di internet berbahasa Inggris — laporan media utama, makalah akademik, posting media sosial — secara keseluruhan memiliki kecenderungan politik tertentu, dan model yang dilatih akan mewarisi kecenderungan ini, tanpa menyadarinya.
Lebih rumit lagi, bias ini bukan bug yang bisa diperbaiki, melainkan tertanam dalam logika output setiap kali model menghasilkan jawaban.
Tingkat ketiga adalah kurangnya konteks dan berbagai sudut pandang. Brown menyatakan bahwa model saat ini umumnya kekurangan “latar belakang konteks, berbagai sudut pandang, dan transparansi argumen”. Jawaban AI berupa pernyataan, bukan struktur seperti “Ini dianggap mewakili posisi A oleh kelompok A, dan posisi B oleh kelompok B, dan perbedaan mendasar keduanya adalah…”.
AI memberi Anda jawaban, tetapi tidak memberi tahu dari sudut pandang mana jawaban itu berasal.
Kesalahan yang lancar, lebih sulit dideteksi daripada keheningan
Brown menunjukkan sebuah blind spot struktural: perusahaan model fondasi dalam menilai dan memberi peringkat model, lebih mengutamakan kemampuan matematika, pengkodean, dan penalaran logika, sementara akurasi informasi dan keberagaman politik hampir tidak pernah masuk dalam daftar standar pengujian utama.
Alasannya tidak sulit dipahami. Kode memiliki benar dan salah, dan pengujian bisa langsung mengetahuinya. Soal matematika memiliki jawaban standar, dan tingkat keakuratannya bisa dihitung. Tapi, “apa yang membuat sebuah laporan berita geopolitik akurat dan adil” siapa yang bisa menilai? Berapa banyak orang dengan sudut pandang berbeda yang diperlukan untuk mencapai konsensus? Masalah ini tidak memiliki solusi rekayasa.
Dalam proses pengembangan produk yang dipimpin insinyur dan didasarkan pada peringkat standar untuk menentukan posisi pasar, hal ini secara sistematis dilewati. Akibatnya, akurasi informasi hampir menjadi indikator yang tidak terlihat dalam sistem penilaian kemampuan AI.
Biaya dari dilewatinya hal ini bisa dilihat dari sebuah kasus konkret. Tahun lalu, kota New York melakukan audit kepatuhan terhadap sistem rekrutmen berbasis AI, untuk memeriksa apakah alat penyaringan AI yang digunakan oleh pemberi kerja melanggar undang-undang anti-diskriminasi yang berlaku. Hasil audit menunjukkan bahwa lebih dari setengah kasus tidak mendeteksi pelanggaran.
Masalah angka ini bukan karena “tingkat pelanggaran rendah”, melainkan mungkin menunjukkan bahwa: keakuratan alat AI yang melakukan audit itu sendiri tidak cukup, sehingga tidak mampu mendeteksi masalah, bukan bahwa masalahnya benar-benar tidak ada.
Ini adalah inti dari argumen Brown: Masalah AI bukan hanya memberi fakta yang salah, tetapi juga membuat orang percaya pada fakta yang salah.
Seseorang yang tahu bahwa dia tidak tahu sesuatu setidaknya masih punya kesempatan untuk mencari tahu. Tapi ketika AI memberikan jawaban yang lancar, percaya diri, dan tanpa ragu-ragu, dengan nada yang meyakinkan, kebanyakan pengguna tidak punya alasan untuk meragukannya.
Kesalahan yang lancar, lebih sulit dideteksi daripada keheningan, dan juga lebih sulit diperbaiki.
Regulasi memaksa, bukan kesadaran moral
Penilaian Brown tegas: perubahan tidak akan didorong oleh tekanan moral atau opini publik, melainkan oleh risiko kepatuhan perusahaan yang membawa tekanan bisnis.
Argumennya didasarkan pada realisme: dalam struktur insentif industri AI saat ini, tidak ada yang cukup kuat alasan untuk secara aktif menyelesaikan masalah ini, sampai biayanya menjadi tidak bisa diabaikan. Pengajuan kredit, penjaminan asuransi, penyaringan rekrutmen — semua keputusan AI dalam skenario ini tunduk pada regulasi yang berlaku.
Begitu AI mengeluarkan hasil yang diskriminatif atau tidak akurat, perusahaan yang menggunakannya harus menanggung tanggung jawab hukum. Tekanan ini akhirnya akan mengalir ke produsen model, menuntut mereka menyediakan output yang dapat diaudit, dapat diverifikasi, dan memiliki jaminan keakuratan. Bukan karena mereka merasa ini secara moral benar, tetapi karena kontrak dengan klien perusahaan mulai memasukkan persyaratan ini.
Lerer Hippeau tahun lalu memimpin investasi awal sebesar 3 juta dolar untuk Forum AI. Angka ini kecil di bidang AI, tetapi mewakili sebuah penilaian: “evaluasi AI” adalah sebuah bisnis, dan permintaan untuk bisnis ini mungkin berkembang lebih cepat daripada yang terlihat saat ini.