AI公司害怕数据泄露,结果自己先漏了。



现在X和GitHub上疯传的这件事,简直像是写好的剧本,完美展示了整个AI行业的脆弱性。

事情是这样的:

— Anthropic 意外在 npm 上发布了一个更新
— 包里有一个约60兆的调试文件
— 里面是:Claude 内部代码的片段

然后好戏开始了。

23分钟后,一位研究员(Chaofan Shou)发现了它,下载下来,并公开了。
几小时内:几百万次浏览。

等 Anthropic 团队反应过来,这个代码已经:
— 在GitHub上传疯了
— 被fork了几万次
— 开始有了自己的生命

一个典型的Web2世界的错误……
发生在信息像病毒一样传播的时代。

现在注意看第二部分。

一个开发者出现了:Sigrid Jin。

他:
— 分析了泄露的代码
— 用8小时重写成Python版
— 在GitHub上收获几万颗星
— 然后又用Rust重写了一遍

搞定。
这个产品基本上就成了一个开源克隆版。

但真正重要的是这里。

在代码里,他们发现了一个叫“卧底模式”的系统。

它的任务是:
防止模型内部数据泄露。

也就是说:

一家做防泄露保护的公司……
通过一个调试文件把自己代码给漏了。

这不只是讽刺。
这是一个信号。

这意味着什么?

1. AI公司并没有看起来那么“封闭”
   但凡出一点错 → 后厨就直接曝光。
2. AI的护城河比投资人想的要脆弱得多
   如果一个产品能快速被复制 → 价值就会转移:
   — 从模型 → 转向数据
   — 从数据 → 转向分发
3. 复制的速度 = 新的现实
   以前需要几年,
   现在只需要几小时。

后果是什么?

— AI公司的利润空间被压缩
— 开源运动加速
— “秘密技术”贬值

而最重要的是:

市场开始意识到,
价值不在代码里,而在生态系统和用户触达上。

我们正在走向一个这样的世界:

— 模型会变成大宗商品
— 赢家不是“AI最强”的那家
— 而是分发、产品、资金最强的那家

现在的AI,让人想起互联网早期。
所有人都以为技术会赢。

但最后赢的,
是那些掌控注意力的人。
post-image
【当前用户分享了他的交易卡片,若想了解更多优质交易信息,请到 App 端查看】
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论