Plurai: Model kecil dengan 3 miliar parameter mengungguli model pelindung khusus 20 miliar

robot
Pembuatan abstrak sedang berlangsung

Berita dari CoinWorld, kerangka barred yang diajukan oleh Plurai menghasilkan data pelatihan sintetis secara otomatis dengan memberikan deskripsi tugas dan sejumlah kecil sampel tanpa label, untuk melatih pelindung konten khusus (guardrail) yang digunakan untuk meninjau apakah output AI melanggar aturan. Model qwen2.5-3b (30 miliar parameter) yang disesuaikan dengan data ini secara menyeluruh mengungguli OpenAI’s oss-safeguard-20b (200 miliar parameter) dalam tugas strategi percakapan, verifikasi output agen, dan kepatuhan medis, dan juga mengungguli GPT-4.1 yang langsung digunakan. Kerangka ini membagi tugas menjadi beberapa dimensi, secara khusus menghasilkan sampel yang mudah salah klasifikasi di batas-batasnya. Setelah dihasilkan, sampel harus melalui tahap " debat tidak simetris" untuk memastikan keakuratan label sampel. Kode evaluasi dan dataset telah dirilis secara open-source di GitHub dan Hugging Face.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan