🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
最强开源模型 deepseek v4终于来了!1.6万亿参数模型,MIT许可,长文本显存压到V3.2十分之一
据动察 Beating 监测,DeepSeek 开源 V4 系列预览版,MIT 许可,权重已上线 Hugging Face 和 ModelScope。系列含两款 MoE 模型:V4-Pro 总参数 1.6T、每 token 激活 49B(490 亿);V4-Flash 总参数 284B(2840 亿)、激活 13B(130 亿)。两款均支持 1M token 上下文。
架构三项升级:混合注意力机制(压缩稀疏注意力 CSA + 重度压缩注意力 HCA)大幅降低长上下文开销,1M 上下文下 V4-Pro 单 token 推理 FLOPs 仅为 V3.2 的 27%,KV 缓存(推理时存储历史信息的显存占用)仅为 V3.2 的 10%;流形约束超连接 mHC 替代传统残差连接,增强跨层信号传播稳定性;训练改用 Muon 优化器加速收敛。预训练数据超 32T token。
后训练分两阶段:先用 SFT 和 GRPO 强化学习分别训练各领域专家,再用在线蒸馏统一合并成一个模型。V4-Pro-Max(最高推理力度模式)自称当前最强开源模型,编码基准达到顶级,推理和 agent 任务与闭源前沿差距显著缩小。V4-Flash-Max 在给足思考预算后推理表现接近 Pro,但纯知识和复杂 agent 任务上受限于参数规模。权重以 FP4+FP8 混合精度存储。