Anthropic确认了:正在测试一个"step change"级别的新模型。


代号Mythos,内部代号Capybara。泄露是意外,但模型是真的。
之前的AI发布怎么说?"在XX benchmark上提升了X%"、"更快更便宜"、"支持更长上下文"。
Mythos的描述呢?"远远领先于任何其他AI模型的网络安全能力"、"预示着一波能以远超防御者方式利用漏洞的模型"。
看出区别了吗?
之前是"我们更好了"。这次是"我们强到可能构成风险"。
Anthropic一直是AI安全叙事最强的公司。他们的RSP(Responsible Scaling Policy)本质是给自己设限——模型能力超过某个阈值,必须增加对应安全措施才能发布。
Mythos可能是第一个真正触发高级别安全审查的模型。
Anthropic可能短期会非常谨慎。"有限客户早期访问"+"聚焦网络安全防御者"。不是面向消费者的全量发布。
长期来看,AI能力曲线可能不是线性的。"Step change"意味着跳跃——上一个模型到这个模型不是10%提升,是质变。
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论