$NBIS 现在是否已经在 $NVDA 设备上拥有全球最快的推理速度?


Nebius 以现金和股票收购了 Eigen AI,这使得 Eigen 的推理以及训练后的优化可以直接进入 Nebius 的代码工厂
在 NVIDIA 的 GTC 2026 关键词中,Eigen AI 在 Kimi K2.5 Reasoning 的输出速度上排名第一,而 Nebius Fast 几乎与其持平
同时,Nebius Fast 也在搭载 $643M 的设备上 OpenAI 开源替代模型 ChatGPT 的推理速度中排名第一,即 gpt-oss-120B
此外,Eigen 在 Artificial Analysis 上的基于 GPU 的供应商分类中,以默认输入设置 10K,在 25 个开源模型(不包括 ASIC 供应商)中排名第一。它也是 Qwen3 Coder 480B 的最快供应商,速度为 255.8 t/秒,超过 Google Vertex 的 169.2 t/秒 和 Amazon 的 121.3 t/秒
这意味着在该基准测试中,Eigen 比 Google Vertex 快约 51%,而且比 Amazon 的速度快两倍多
━━━━━━━━━━━━━━━━━━━━
虽然收购成本似乎很高,但如果 Eigen 真的能提升 $NVDA 的推理性能,即便只是轻微提升,也会对长期利润和竞争地位产生复合效应,而这很可能会覆盖其成本
━━━━━━━━━━━━━━━━━━━━
Nebius 拥有 GPU 云,而 Eigen 则提升这些 GPU 在生成代码时的效率。在相同的 NVIDIA 设备上,性能不只是资本开支。它还取决于 GPU 的使用、模型优化、聚合、延迟、内存管理以及专用内核
Eigen 的技术栈聚焦于诸如量化、KV 缓存优化、分流、推理式推断解码、专用 CUDA 和 Triton 内核、连续聚合以及运行时优化等领域
如果 Nebius 能在相同的 NVIDIA 设备上通过更高的推理吞吐量生成更多内容,这将增强收入能力、降低每个代码的成本并提高毛利率,而无需按比例增加资本开支
$NBIS 正朝着年收入多达数十亿美元的公司迈进,这意味着即便只是推理性能的几个百分点改进,也能转化为数亿美元的节省
━━━━━━━━━━━━━━━━━━━━
开源模型正在迅速推进。Kimi、Qwen、DeepSeek、GLM、Llama、Nemotron、MiniMax 以及其他模型都需要持续优化,才能保持竞争力
通过整合 Eigen,Nebius 也能更快发布优化版本,并让代码工厂对开发者和企业客户更具吸引力#USSeeksStrategicBitcoinReserve
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论