Microsoft open-sources the three-tier Harrier text embedding models; the 27B version tops the multilingual MTEB v2 leaderboard.

robot
Generación de resúmenes en curso

Noticias de CoinWap: según el monitoreo de 1M AI News, Microsoft lanzó la familia de modelos de incrustación de texto multilingüe de código abierto harrier-oss-v1 en Hugging Face, con tres versiones: 270M, 0.6B y 27B. La ficha del modelo muestra que esta serie utiliza una arquitectura solo decodificador, pooling por último token y normalización L2; admite un máximo de 32768 tokens y se puede usar para búsqueda, agrupación, similitud semántica, clasificación, minería bilingüe y reordenamiento. Multilingual MTEB v2 es un benchmark de incrustación de texto multilingüe comúnmente utilizado en la industria; principalmente evalúa tareas como búsqueda, clasificación, agrupación y similitud semántica. Según la ficha del modelo de Microsoft, las puntuaciones de los tres modelos en este benchmark son 66.5, 69.0 y 74.3, respectivamente, y la versión de 27B ocupó el primer lugar el día de su lanzamiento. Las versiones de 270M y 0.6B además usan un modelo de incrustación más grande para realizar destilación de conocimiento. Los tres modelos se publicaron bajo la licencia MIT.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado