小米MiMo-V2.5系列开源:10000亿亿参数采用MIT许可证,令牌效率超越GPT-5.4在ClawEval上的表现

robot
摘要生成中

根据东查贝廷的监测,小米MiMo团队已开源MiMo-V2.5系列大型模型,包括两个模型,均采用MIT许可证,支持商业部署、持续训练和微调,具有高达100万令牌的上下文窗口。MiMo-V2.5-Pro是纯文本专家混合模型(Mixture of Experts架构),总参数量为1.02万亿,激活参数为420亿;MiMo-V2.5是原生多模态模型,总参数量为3100亿,激活参数为150亿,支持文本、图像、视频和音频理解。MiMo-V2.5-Pro主要面向复杂代理和编程任务。在ClawEval评测中,V2.5-Pro达到了64%的通过率^3,达到可比水平,同时每个任务轨迹仅消耗约70,000个令牌,比Claude Opus 4.6、Gemini 3.1 Pro和GPT-5.4少约40%到60%。SWE-bench验证得分为78.9。在官方博客展示的案例中,V2.5-Pro自主实现了北京大学编译原理课程项目的完整SysY到RISC-V编译器,耗时4.3小时,调用了672次工具,隐藏测试集得分为233/233,获得满分。MiMo-V2.5设计用于多模态代理场景,配备专用视觉编码器(7.29亿参数的ViT)和音频编码器(2.61亿参数),在Claw-Eval通用子集中的得分为62.3。两款模型采用滑动窗口注意力(SWA)和全局注意力(GA)混合架构,并配备三层多令牌预测(MTP)模块(一次预测多个令牌以加快推理速度)。权重已在Hugging Face上开源发布。除了开源之外,MiMo团队还推出了“Orbit Trillion Token Creator Incentive Program”,在30天内向全球用户免费提供总计100万亿令牌配额。个人开发者、团队和企业可在活动页面申请,评估期约为3个工作日。审核通过后,福利将以Token Plan或补助的形式发放,可直接用于Claude Code和Cursor等编程工具。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论