我刚刚注意到,Anthropic 和 OpenAI 都对其安全承诺做出了相当大幅度的调整。在 Anthropic 方面,其《负责任增长》方针中的一项核心承诺被直接删掉了——具体来说,就是承诺:当风险缓解措施不足时,暂停 AI 训练。Anthropic 的首席科学官 Jared Kaplan(Chief Scientific Officer von Anthropic)则用高度竞争的市场现实来解释这一点。面对竞争压力,单方面暂停当然并不现实。



类似地,在 OpenAI:其使命被重新表述,并且删掉了“安全”一词。取而代之的是,现在的重点在于让 AI 服务于人类。那当然符合投资人和政策制定者的预期,但也表明这些公司如今在思考问题时有多么务实。

时间点很有意思:Anthropic 正在完成一轮 300 亿美元的融资,并将以 3800 亿的估值进行计价。OpenAI 目标最高达到 1000 亿美元,并获得 Amazon、Microsoft 和 Nvidia 的支持。这样可以看出,为什么会删掉这类安全表述——压力实在是巨大。

另一个点:Anthropic 拒绝给予美国五角大楼(Pentagon)对 Claude 的完全访问权,这导致与美国国防部长 Pete Hegseth(US-Verteidigungsminister Pete Hegseth)之间出现紧张关系。这引发了关于国防合同的疑问,也显示出安全方面的担忧与地缘政治的现实之间有时会出现部分矛盾。很值得观察的是,这个行业正如何在当下重新定义自己。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论