福利加码,Gate 广场明星带单交易员三期招募开启!
入驻发帖 · 瓜分$30,000月度奖池 & 千万级流量扶持!
如何参与:
1️⃣ 报名成为跟单交易员:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 报名活动:https://www.gate.com/questionnaire/7355
3️⃣ 入驻Gate广场,持续发布交易相关原创内容
丰厚奖励等你拿:
首发优质内容即得$30 跟单体验金
每双周瓜分$10,000U内容奖池
Top 10交易员额外瓜分$20,000U登榜奖池
精选帖推流、首页推荐、周度明星交易员曝光
详情:https://www.gate.com/announcements/article/50291
Vultr全球推出Rubin AI推理服务 阿拉伯邮报
(MENAFN-阿拉伯邮报)
云基础设施提供商Vultr推出了基于NVIDIA Rubin平台的生产就绪人工智能推理堆栈,标志着双方合作的重大扩展,随着企业加快采用生成式AI工作负载。
该部署旨在为Vultr全球云网络提供可扩展、成本高效的推理能力,面向希望将AI模型落地运营的企业,而无需承担通常与专用基础设施相关的高资本支出。Rubin平台作为NVIDIA的下一代AI推理架构,专注于提供更高的吞吐量和更低的延迟,以支持实时应用。
参与此次推出的高管表示,新堆栈整合了硬件加速、优化的软件层和编排工具,形成一个统一的解决方案。这种方式使企业能够以更低的复杂度部署和管理推理工作负载,特别适用于大型语言模型、推荐引擎和计算机视觉系统等应用。
此次公告反映了AI生态系统中的更广泛转变,即需求已从模型训练转向大规模推理。虽然训练仍然资源密集,但行业分析师指出,一旦模型部署,推理工作负载占据了大部分运营成本。因此,企业正在寻求在性能与效率之间取得平衡的基础设施,尤其是在AI服务嵌入到面向客户的应用中时。
Vultr的扩展正值云服务提供商竞相差异化其AI能力之际。超大规模平台在专有AI芯片和垂直整合生态系统上投入巨大,而较小的提供商则定位为提供灵活配置的替代方案。通过与NVIDIA Rubin架构紧密合作,Vultr旨在捕获重视性能而非供应商锁定的市场细分。
另见 TPConnects推出面向航空AI零售的MCP层
NVIDIA一直在加强与云服务提供商的合作,以扩大其AI硬件和软件堆栈的覆盖范围。Rubin平台在早期架构基础上进行了改进,提升了内存带宽、互连效率和软件优化。这些改进旨在支持日益复杂的AI模型,包括用于生成式应用如聊天机器人、图像合成和实时分析的模型。
行业观察人士指出,推理效率已成为企业规模化部署AI时的关键因素。持续运行大型模型可能带来巨大的运营成本,尤其是在多个地区部署时。因此,减少能耗和最大化利用率的解决方案正受到关注,特别是在寻求可预见价格结构的企业中。
Vultr的产品提供预配置环境,允许开发者使用广泛采用的框架部署模型,减少了大量定制的需求。公司还强调支持开源工具,反映出AI基础设施中互操作性的趋势。这一策略与一些需要更紧密集成但提供更深优化的专有生态系统形成对比。
全球推广表明,Vultr正努力满足不同地区对AI服务的需求,特别是在延迟和数据主权要求严格的市场。通过在多个数据中心分布推理能力,Vultr旨在实现更快的响应时间和符合本地法规的合规性。这对于金融、医疗和电信等行业尤为重要,这些行业对数据处理标准要求严格。
分析师指出,此合作凸显了NVIDIA在AI基础设施领域日益增长的影响力。该公司硬件已成为训练和推理工作负载的基石,其软件生态系统也在不断扩展。然而,依赖单一供应商也引发了关于供应限制和价格动态的担忧,这些问题已影响到更广泛的半导体市场。
另见 OpenAI报告中国相关的ChatGPT网络攻击使用情况
对于企业而言,提供生产就绪的推理堆栈降低了AI采用的门槛。企业无需从零构建基础设施,而是可以利用托管服务部署模型,获得可扩展性和运营支持。这一转变预计将加快AI在业务流程中的整合,从客户服务自动化到预测分析。
同时,推理领域的竞争也在加剧。其他云提供商和芯片制造商正在开发替代方案,旨在减少对GPU架构的依赖。一些公司探索专用加速器或结合CPU、GPU和定制芯片的混合方案,以优化特定工作负载的性能。
发现问题? 阿拉伯邮报致力于为读者提供最准确可靠的信息。如果您认为本文存在错误或不一致之处,请随时联系我们的编辑团队,邮箱:editor[at]thearabianpost[dot]com。我们承诺及时处理您的反馈,确保最高的新闻诚信。
MENAFN19032026000152002308ID1110881946