Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Wikipedia Melarang Teks yang Dihasilkan AI dalam Artikel Berdasarkan Kebijakan Penyuntingan Baru
Singkatnya
Editor Wikipedia telah mengambil langkah untuk membatasi penggunaan kecerdasan buatan di platform, dalam pembaruan kebijakan terbaru yang melarang penggunaan model bahasa besar untuk menulis atau menulis ulang artikel.
Panduan baru ini mencerminkan kekhawatiran yang semakin besar di komunitas Wikipedia bahwa teks yang dihasilkan AI dapat bertentangan dengan standar platform, terutama terkait verifikasi dan sumber yang dapat dipercaya.
“Teks yang dihasilkan oleh model bahasa besar sering melanggar beberapa kebijakan inti konten Wikipedia,” bunyi pembaruan kebijakan tersebut. “Oleh karena itu, penggunaan LLM untuk menghasilkan atau menulis ulang konten artikel dilarang, kecuali dalam pengecualian yang diberikan di bawah ini.”
Kebijakan ini masih memperbolehkan penggunaan terbatas alat AI, termasuk menyarankan penyuntingan salinan dasar terhadap tulisan sendiri, asalkan sistem tidak memperkenalkan informasi baru. Namun, editor disarankan untuk meninjau saran tersebut dengan hati-hati.
Meskipun kebijakan baru ini tidak menyebutkan sanksi untuk penggunaan konten yang dihasilkan AI, menurut pedoman Wikipedia tentang pengungkapan, pengulangan penyalahgunaan membentuk “ pola penyuntingan yang mengganggu,” dan dapat menyebabkan pemblokiran atau larangan. Wikipedia memang memberikan jalur kepada editor untuk memulihkan akun mereka setelah proses banding.
“Pemblokiran dapat dibatalkan dengan kesepakatan dari admin yang memblokir, atau oleh admin lain jika pemblokiran tersebut jelas tidak adil, atau (dalam kasus yang sangat jarang) melalui banding ke Komite Arbitrase,” kata Wikipedia.
Menurut Emily M. Bender, profesor linguistik di University of Washington, beberapa penggunaan model bahasa dalam alat penyuntingan mungkin masuk akal, tetapi membatasi batasan yang jelas antara penyuntingan dan pembuatan teks bisa sulit.
“Jadi salah satu hal yang bisa dilakukan dengan model bahasa adalah membangun pemeriksa ejaan yang sangat baik, misalnya,” kata Bender kepada Decrypt. “Saya rasa wajar jika menjalankan pemeriksa ejaan atas suntingan. Dan jika Anda melakukan tingkat berikutnya, pemeriksa tata bahasa, itu juga bisa diterima.”
Bender mengatakan tantangannya muncul ketika sistem melampaui memperbaiki tata bahasa dan mulai mengubah atau menghasilkan konten, mencatat bahwa model bahasa besar tidak memiliki akuntabilitas seperti yang dimiliki kontributor manusia dalam proyek pengetahuan kolaboratif.
“Menggunakan model bahasa besar untuk menghasilkan teks sintetis, adalah sifat dasar dari sistem ini bahwa tidak ada akuntabilitas, tidak ada kaitannya dengan apa yang diyakini seseorang atau yang mereka pegang,” katanya. “Ketika kita berbicara, kita berbicara berdasarkan apa yang kita yakini dan apa yang kita pertanggungjawabkan, bukan berdasarkan suatu pengertian objektif tentang kebenaran. Dan itu tidak ada pada model bahasa besar.”
Bender juga mengatakan penggunaan luas suntingan yang dihasilkan AI dapat mempengaruhi reputasi situs.
“Jika orang malah mengambil jalan pintas dan membuat sesuatu yang tampak seperti suntingan atau artikel Wikipedia lalu menaruhnya di sana, maka itu merusak nilai dan reputasi keseluruhan situs,” katanya.
Joseph Reagle, profesor asosiasi studi komunikasi di Northeastern University, yang mempelajari budaya dan tata kelola Wikipedia, mengatakan respons komunitas mencerminkan kekhawatiran lama tentang akurasi dan sumber.
“Wikipedia berhati-hati terhadap prosa yang dihasilkan AI,” kata Reagle kepada Decrypt. “Mereka serius terhadap karakterisasi yang akurat tentang apa yang dikatakan sumber terpercaya tentang suatu topik. AI memiliki keterbatasan serius di bidang itu, seperti klaim ‘halusinasi’ dan sumber palsu.”
Reagle mengatakan kebijakan inti Wikipedia juga membentuk pandangan editor terhadap alat AI, mencatat bahwa banyak model bahasa besar dilatih menggunakan konten Wikipedia. Pada Oktober, Wikimedia Foundation menyatakan bahwa kunjungan manusia ke Wikipedia menurun sekitar 8% dari tahun ke tahun karena mesin pencari dan chatbot semakin memberikan jawaban langsung di platform mereka, alih-alih mengarahkan pengguna ke situs.
Pada Januari, Wikimedia Foundation mengumumkan kesepakatan dengan perusahaan AI, termasuk Microsoft, Google, Amazon, dan Meta, yang memungkinkan mereka menggunakan materi Wikipedia melalui produk Enterprise-nya, layanan komersial yang dirancang untuk penggunaan ulang konten secara besar-besaran.
“Walaupun penggunaan konten Wikipedia diizinkan oleh lisensi Wikipedia, masih ada ketidaksukaan di kalangan Wikipedian terhadap layanan yang mengakuisisi konten komunitas dan kemudian menuntut komunitas tersebut untuk menangani kelebihan konten AI yang tidak diinginkan,” kata Reagle.
Meskipun dilarang menggunakan LLM, Wikipedia tetap memperbolehkan alat AI untuk menerjemahkan artikel dari edisi bahasa lain ke dalam bahasa Inggris, asalkan editor memverifikasi teks asli. Kebijakan ini juga memperingatkan editor agar tidak hanya mengandalkan gaya penulisan untuk mengidentifikasi konten yang dihasilkan AI dan sebaliknya fokus pada apakah materi tersebut sesuai dengan kebijakan inti Wikipedia dan riwayat penyuntingan kontributor.
“Beberapa editor mungkin memiliki gaya penulisan yang mirip dengan LLM,” kata pembaruan tersebut. “Lebih banyak bukti selain tanda-tanda gaya atau linguistik diperlukan untuk membenarkan sanksi, dan sebaiknya mempertimbangkan kesesuaian teks dengan kebijakan inti konten dan suntingan terbaru dari editor terkait.”
Buletin Debrief Harian
Mulai setiap hari dengan berita utama saat ini, plus fitur asli, podcast, video, dan lainnya.
Email Anda
Dapatkan!
Dapatkan!