Microsoft відкрила вихідний код трьох рівнів моделі текстових вбудовувань Harrier, версія 27B посіла перше місце в багатомовному рейтингу MTEB v2

robot
Генерація анотацій у процесі

Згідно з моніторингом 1M AI News, Microsoft у своїй відкритій багатомовній сім’ї моделей текстових вбудовувань на Hugging Face harrier-oss-v1, що включає три варіанти: 270M, 0.6B і 27B. У картці моделі зазначено, що ця серія використовує архітектуру лише декодера, last-token pooling та L2-нормалізацію, а максимальна підтримувана довжина становить 32768 токенів; її можна застосовувати для пошуку, кластеризації, семантичної подібності, класифікації, двомовного видобування та повторного ранжування.

Multilingual MTEB v2 — це широко використований у галузі багатомовний текстовий ембеддинг-бенчмарк, який переважно тестує завдання на кшталт пошуку, класифікації, кластеризації та семантичної подібності. У картці моделі Microsoft заявлено, що для цього бенчмарку бали трьох варіантів становлять відповідно 66.5, 69.0 і 74.3, причому версія 27B у день релізу піднялася на перше місце в рейтингу. Версії 270M і 0.6B також додатково використовують більшу модель вбудовувань для дистиляції знань; усі три моделі випущено під ліцензією MIT.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.27KХолдери:2
    0.00%
  • Рин. кап.:$2.33KХолдери:2
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Закріпити