对Anthropic泄露的网络安全AI“踩刹车”

一则泄露的 Anthropic AI 模型消息震动了网络安全行业,使多家大型公司的股票大幅下挫。最初看起来可能是个颠覆性变革的事件,如今却引发了紧迫的问题:组织是否能够信任 AI 来处理其最敏感的数字资产,还是说这次事件只是进一步凸显了对专业保护的需求?

据 Mint 报道,一篇泄露的草稿博客文章引入了一种名为 Capybara 的新型 AI 模型等级。该草稿称,Capybara 在“软件编码、学术推理以及与网络安全相关的任务”方面,表现优于 Anthropic 的旗舰模型 Claude Opus 4.6。文章还进一步指出,训练 Claude Mythos(一款 Anthropic 将其描述为目前最先进的模型)的工作已经完成。

为什么会泄露?

尽管 Anthropic 将泄露归因于“人为错误”,但这一解释可能很难让组织对该公司保护敏感数据的能力感到放心。一些分析师推测,也许还有其他动机在  起作用。

“Capybara 的泄露令人遗憾,但我几乎想知道,它是否是被有意留在了一个可访问的数据湖中,用来凸显那些不断演进的 AI 平台所带来的、并且将会带来的新兴网络风险,”Javelin Strategy & Research 的网络安全总监 Tracy Goldberg 表示。“话虽如此,该模型仍在测试中,Anthropic 明确表示其已意识到需要解决的漏洞和风险,因此 Anthropic 只对 Capybara 进行了软启动。”

人工智能带来的迫在眉睫的威胁

Anthropic 也强调了与这些模型相关的网络安全风险,并指出防御者与网络犯罪分子之间正在进行的 AI 军备竞赛正在升级。该公司警告称,Capybara 可能会成为一系列模型中的第一款,能够比安全团队的响应速度快得多地识别并利用漏洞。换句话说,犯罪分子可能会借助该模型,为一代新的、由 AI 驱动的网络安全威胁提供燃料。

投资者反应迅速,在早盘交易中推动 CrowdStrike、Datadog 和 Zscaler 的股价下跌超过 10%。

“在 Capybara 泄露消息引发的科技股下跌中,真正突显的是投资者对整体 AI 缺乏理解,”Goldberg 说。“我们知道这些模型将继续适应,并且适应的速度会快于行业安全措施所能响应的速度。这就是为什么围绕 AI 的治理如此关键。”

0

                    股数

0

                浏览量
            

            

            

                在 Facebook 上分享在 Twitter 上分享在 LinkedIn 上分享

标签: AIAnthropicCrowdStrikeCybersecurityMint

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论