ME News ニュース、4月16日(UTC+8)、通義実験室はQwen3.6-35B-A3Bのオープンソースを発表しました。これはスパース混合専門家(MoE)アーキテクチャを採用した高効率モデルです:総パラメータは350億で、推論時にのみ30億のパラメータを活性化します。パラメータ数は少ないですが、性能は依然として強力です。インテリジェントエージェントのプログラミングにおいて、前世代のQwen3.5-35B-A3Bを大きく超え、Qwen3.5-27BやGemma-31Bなどのより大きな密なモデルと互角に戦えます。(出典:BlockBeats)
通义实验室はQwen3.6-35B-A3Bのオープンソースを発表しました
ME News ニュース、4月16日(UTC+8)、通義実験室はQwen3.6-35B-A3Bのオープンソースを発表しました。これはスパース混合専門家(MoE)アーキテクチャを採用した高効率モデルです:総パラメータは350億で、推論時にのみ30億のパラメータを活性化します。パラメータ数は少ないですが、性能は依然として強力です。インテリジェントエージェントのプログラミングにおいて、前世代のQwen3.5-35B-A3Bを大きく超え、Qwen3.5-27BやGemma-31Bなどのより大きな密なモデルと互角に戦えます。(出典:BlockBeats)