Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Ethan Mollick Membagikan LLM yang Dilatih Sepenuhnya pada Teks Era Victoria
Ethan Mollick Berbagi LLM yang Dilatih Sepenuhnya dengan Teks Era Victoria
Ringkasan
Ethan Mollick mencuit tentang model bahasa besar yang dilatih dari awal menggunakan lebih dari 28.000 teks Inggris dari era Victoria (1837-1899), semuanya bersumber dari dataset Perpustakaan Inggris. Model ini bertujuan untuk menghasilkan bahasa dan perspektif sejarah yang autentik tanpa bergantung pada LLM modern yang berpura-pura menjadi Victoria. Dengan membatasi data pelatihan pada sumber-sumber spesifik periode, para pengembang berharap dapat memperoleh simulasi yang lebih akurat tentang bagaimana orang sebenarnya menulis dan berpikir di era itu. Ini penting karena menunjukkan satu cara untuk membangun model spesifik domain yang menghindari bias kontemporer—berguna untuk pendidikan, pelestarian budaya, dan penelitian sejarah.
Analisis
Proyek serupa ada: TimeCapsuleLLM yang dilatih pada teks London 1800-1875, dan Violet LLM yang menggunakan sumber 1800-1899 termasuk data Perpustakaan Inggris. Ini biasanya menggunakan arsitektur seperti nanoGPT atau GPT-NeoX. TimeCapsuleLLM menghasilkan beberapa hasil yang mengejutkan—ia dapat mengingat peristiwa nyata tahun 1834 dari pola dalam hanya 15GB data pelatihan, tanpa fakta sejarah eksplisit yang disertakan.
Pendekatan dari awal menggunakan dataset domain publik sesuai dengan tren yang lebih luas: proyek hobi dan akademis yang membangun model khusus daripada bergantung pada sistem tujuan umum. Tradeoff-nya jelas—Anda mendapatkan output yang autentik sesuai periode tetapi kehilangan jangkauan model kelas GPT-4.
Saya harus mencatat: model spesifik yang dirujuk Mollick tetap tidak teridentifikasi. Cuitannya muncul kurang dari satu jam sebelum analisis ini, dan pencarian di Hugging Face, GitHub, dan repositori Perpustakaan Inggris hanya menemukan proyek-proyek lama yang disebutkan di atas. Detail di sini diambil dari upaya serupa tersebut daripada model yang tepat dalam cuitan.
Jika model baru ini dirilis secara publik dengan dokumentasi, itu bisa mendorong lebih banyak minat pada LLM sejarah untuk analisis budaya. Namun, ada tantangan nyata—kualitas OCR dari sumber abad ke-19 bervariasi secara liar, dan dataset buku 25 juta halaman Perpustakaan Inggris mencakup banyak artefak pemindaian.
Penilaian Dampak