Coin界網のニュースによると、1M AI Newsのモニタリングで、マイクロソフトがHugging Faceでオープンソース化した多言語テキスト埋め込みモデルファミリーharrier-oss-v1は、270M、0.6B、27Bの3つの規模を含みます。モデルカードには、この一連のモデルがデコーダーオンリーのアーキテクチャ、last-token pooling、L2正規化を採用しており、最大で32768トークンに対応し、検索、クラスタリング、セマンティック類似度、分類、バイリンガル採掘、そして再ランキングに利用できると記載されています。Multilingual MTEB v2は業界でよく使われる多言語テキスト埋め込みのベンチマークで、主に検索、分類、クラスタリング、セマンティック類似度などのタスクをテストします。マイクロソフトのモデルカードによれば、3つの規模のモデルの同ベンチマークでのスコアはそれぞれ66.5、69.0、74.3であり、そのうち27B版はリリース当日に首位を獲得しました。270M版と0.6B版はさらに、大きめの埋め込みモデルを用いて知識蒸留も追加で行っています。3つのモデルはいずれもMITライセンスで公開されています。
Microsoftが3つのバージョンのHarrierテキスト埋め込みモデルをオープンソース化、27B版が多言語MTEB v2ランキングでトップに
Coin界網のニュースによると、1M AI Newsのモニタリングで、マイクロソフトがHugging Faceでオープンソース化した多言語テキスト埋め込みモデルファミリーharrier-oss-v1は、270M、0.6B、27Bの3つの規模を含みます。モデルカードには、この一連のモデルがデコーダーオンリーのアーキテクチャ、last-token pooling、L2正規化を採用しており、最大で32768トークンに対応し、検索、クラスタリング、セマンティック類似度、分類、バイリンガル採掘、そして再ランキングに利用できると記載されています。Multilingual MTEB v2は業界でよく使われる多言語テキスト埋め込みのベンチマークで、主に検索、分類、クラスタリング、セマンティック類似度などのタスクをテストします。マイクロソフトのモデルカードによれば、3つの規模のモデルの同ベンチマークでのスコアはそれぞれ66.5、69.0、74.3であり、そのうち27B版はリリース当日に首位を獲得しました。270M版と0.6B版はさらに、大きめの埋め込みモデルを用いて知識蒸留も追加で行っています。3つのモデルはいずれもMITライセンスで公開されています。