OpenAI 联合创始人声称 $110 亿仍无法满足需求,预训练转向成本联合优化

robot
摘要生成中

据1M AI News的监测报道,OpenAI联合创始人格雷格·布罗克曼(Greg Brockman)在一次采访中回顾了他预计到2025年12月时,AI编程能力将迎来的一大跃升。他使用了自己多年之前就保存下来的一个测试提示,用来衡量进展:让AI构建一个网站——在他学习编程时,这个任务花了他数月才能完成。整个2025年,这项任务需要多次提示,并耗时约四小时;到12月时,它就可以通过一次提示完成,且质量很高。他表示,新模型使AI能够从“完成大约20%任务”的水平,跃升到“约80%”的水平,这种变化迫使所有人“围绕AI重新组织工作流程”。至于这1100亿美元资金的分配,布罗克曼将算力比作“招聘销售人员”:只要产品拥有可扩展的销售渠道,招聘更多销售人员就能带来更多收入。算力不是成本中心,而是收入中心。他回忆了ChatGPT发布前夕与团队的一次对话:“他们问:‘我们应该买多少算力?’我说:‘买全部。’他们说:‘不不不,认真点,我们该买多少?’我说:‘无论我们怎么做,都无法跟上需求。’这一判断至今仍然成立,而算力采购需要提前18到24个月锁定。关于如何利用这些算力,布罗克曼透露,OpenAI不再只是单独追求最大的预训练规模,而是协同优化预训练能力与推理成本:“你不一定非要把它做得越大越好,因为你还需要考虑大量下游推理的使用场景;你真正想要的是‘智能乘以成本’的最优解。”不过,他坚决反对“预训练不再重要”的观点;他认为,基础模型越聪明,后续强化学习和推理阶段的效率就越高,而且仍然存在对Nvidia GPUs的“绝对需求”,以支撑在2025年12月推出的Nvidia GPUs的规模化集中训练。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论