ME News ニュース、4月16日(UTC+8)、通義実験室はQwen3.6-35B-A3Bのオープンソースを発表しました。これはスパース混合専門家(MoE)アーキテクチャを採用した効率的なモデルです:総パラメータは350億で、推論時にのみ30億のパラメータを活性化します。パラメータ数は少ないですが、性能は依然として強力です。インテリジェントエージェントのプログラミングにおいて、前世代のQwen3.5-35B-A3Bを大きく超え、Qwen3.5-27BやGemma-31Bなどのより大きな密なモデルと肩を並べることができます。(出典:BlockBeats)
通义实验室宣布Qwen3.6-35B-A3B开源
ME News ニュース、4月16日(UTC+8)、通義実験室はQwen3.6-35B-A3Bのオープンソースを発表しました。これはスパース混合専門家(MoE)アーキテクチャを採用した効率的なモデルです:総パラメータは350億で、推論時にのみ30億のパラメータを活性化します。パラメータ数は少ないですが、性能は依然として強力です。インテリジェントエージェントのプログラミングにおいて、前世代のQwen3.5-35B-A3Bを大きく超え、Qwen3.5-27BやGemma-31Bなどのより大きな密なモデルと肩を並べることができます。(出典:BlockBeats)