✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
AI公司害怕数据泄露,结果自己先漏了。
现在X和GitHub上疯传的这件事,简直像是写好的剧本,完美展示了整个AI行业的脆弱性。
事情是这样的:
— Anthropic 意外在 npm 上发布了一个更新
— 包里有一个约60兆的调试文件
— 里面是:Claude 内部代码的片段
然后好戏开始了。
23分钟后,一位研究员(Chaofan Shou)发现了它,下载下来,并公开了。
几小时内:几百万次浏览。
等 Anthropic 团队反应过来,这个代码已经:
— 在GitHub上传疯了
— 被fork了几万次
— 开始有了自己的生命
一个典型的Web2世界的错误……
发生在信息像病毒一样传播的时代。
现在注意看第二部分。
一个开发者出现了:Sigrid Jin。
他:
— 分析了泄露的代码
— 用8小时重写成Python版
— 在GitHub上收获几万颗星
— 然后又用Rust重写了一遍
搞定。
这个产品基本上就成了一个开源克隆版。
但真正重要的是这里。
在代码里,他们发现了一个叫“卧底模式”的系统。
它的任务是:
防止模型内部数据泄露。
也就是说:
一家做防泄露保护的公司……
通过一个调试文件把自己代码给漏了。
这不只是讽刺。
这是一个信号。
这意味着什么?
1. AI公司并没有看起来那么“封闭”
但凡出一点错 → 后厨就直接曝光。
2. AI的护城河比投资人想的要脆弱得多
如果一个产品能快速被复制 → 价值就会转移:
— 从模型 → 转向数据
— 从数据 → 转向分发
3. 复制的速度 = 新的现实
以前需要几年,
现在只需要几小时。
后果是什么?
— AI公司的利润空间被压缩
— 开源运动加速
— “秘密技术”贬值
而最重要的是:
市场开始意识到,
价值不在代码里,而在生态系统和用户触达上。
我们正在走向一个这样的世界:
— 模型会变成大宗商品
— 赢家不是“AI最强”的那家
— 而是分发、产品、资金最强的那家
现在的AI,让人想起互联网早期。
所有人都以为技术会赢。
但最后赢的,
是那些掌控注意力的人。