Plurai: modelo pequeño de 3 mil millones de parámetros supera al modelo especializado de 20 mil millones

robot
Generación de resúmenes en curso

Noticias de Coinjie.com, el marco barred propuesto por Plurai genera automáticamente datos de entrenamiento sintéticos a partir de una descripción de tarea dada y una pequeña muestra sin etiquetar, para entrenar un guardián de contenido personalizado (guardrail) que se utiliza para revisar si la salida de IA viola las normas.
Este modelo ajustado con estos datos, qwen2.5-3b (30 mil millones de parámetros), supera ampliamente a OSS-Safeguard-20b de OpenAI (200 mil millones de parámetros) en tareas como estrategia de diálogo, verificación de salida de agentes y cumplimiento médico, y también supera directamente a GPT-4.1.
Este marco divide la tarea en múltiples dimensiones, generando específicamente muestras fáciles de clasificar en los límites.
Después de la generación, las muestras deben pasar por una etapa de «debate asimétrico» para garantizar la precisión de las etiquetas.
El código de evaluación y los conjuntos de datos ya están abiertos en GitHub y Hugging Face.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado