✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
一直在观察真实组织中的情况,老实说,现在有点乱。
你的市场团队在把客户数据上传到免费版ChatGPT,你的工程师在随意粘贴专有代码到各种AI调试工具中,而且没人通知IT。研究显示,71%的员工在这样做,57%的员工还在积极隐瞒这件事不让安全团队知道。
让我担心的是:这不是恶意。这些人只是想提高工作效率。问题在于,免费AI工具的运作模式与企业软件完全不同。当你把数据粘贴进去时,你不仅仅是在寻求帮助——你还在喂养训练数据。这段代码、客户名单、策略文件?它们现在都成为模型参数的一部分。你无法删除它,也无法让模型“忘记”它。
还记得2023年的三星吗?工程师把敏感源代码粘贴到ChatGPT中以优化它。这些代码被吸收进了训练数据。没了。
但事情还会变得更糟。如果你的团队在没有适当协议的情况下,用美国的AI工具处理欧洲客户数据,你很可能已经违反了GDPR。而当员工用未经审查的AI生成报告或客户交付物,模型又“胡编乱造”时?突然之间,你面对的是将虚假信息作为事实呈现给客户的风险。这不仅是技术问题,更是声誉灾难的潜在隐患。AI无法区分准确性和虚构,使用它的人也一样。
真正的问题是我所说的“治理缺口”。禁止这些工具行不通,只会让使用变得暗中进行。你需要一种不同的方法。
从技术角度看,你可以检测部分行为。DNS监控可以捕获对OpenAI、Anthropic、Midjourney的流量。DLP规则可以标记粘贴代码或PII到聊天界面时的行为。但最好的检测者?是你的员工。如果他们不怕惩罚,他们会告诉你他们在用什么。
这里有一个真正有效的框架:
第一,发布明确的允许/禁止名单。如果还没有批准的工具,要坦诚说明。对高风险域名部署BYOK(自带密钥)策略,确保数据在传输和存储过程中受到保护。由领导发一份备忘录,说明AI很有用,但免费工具存在风险。
第二,制定正式政策,分为三个层级:允许经过审查的企业工具,监控低风险工具用于非敏感数据,禁止用于训练你数据或缺乏安全标准的工具。培训团队,让他们了解与岗位相关的重点。
第三,实施浏览器控制,限制未授权的AI域名。考虑引入AI网关,实时对PII进行脱敏处理,确保数据在到达模型提供商前已被保护。
第四,建立AI治理团队,定期审查新工具和风险。让员工方便地提出新工具请求,避免治理成为瓶颈。
但关键是:如果你不给员工更好的选择,这一切都无济于事。他们用免费工具,是因为它们有效、方便。
“BYOK(自带密钥)”模型在这里很有意思。意味着你的组织直接从OpenAI或Anthropic等提供商购买API访问权限,然后接入一个平台,让员工通过单一界面访问多个模型。你控制API密钥,数据在你的控制下流动。没有在你的数据上进行训练。完全可见,完全合规。
这才是真正阻止“影子AI”的方法。不是禁止,而是让安全路径变得最便捷。
那些把数据粘贴到ChatGPT的员工,并不是想泄露知识产权。他们只是想完成工作。问题不在于他们不服从——而在于市场的速度远远快于企业采购的速度。解决这个问题,你就解决了风险。