Proyek Delphi: Pelatihan model prediksi ekstensi 300 kali, hanya dengan kesalahan 0,2%

AIMPACT Pesan, 12 Mei (UTC+8), WilliamBarrHeld memposting tweet memperkenalkan proyek Delphi, sebagai langkah pertama Marin. Proyek ini melatih beberapa model kecil dengan satu formula tunggal, kemudian melakukan extrapolasi 300 kali lipat, berhasil memprediksi sebuah pelatihan dengan 25 miliar parameter dan 6000 miliar token, dengan kesalahan hanya 0,2%. Delphi bertujuan untuk mencapai ekspansi yang dapat diprediksi untuk melatih model sumber terbuka yang lebih baik. (Sumber: InFoQ)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan