员工正在以有害的方式使用人工智能——而公司可能一无所知

人工智能如同地震般冲击了劳动力市场,越来越多的公司正应对余震。

一个日益突出的问题是所谓的“影子AI”,即员工在不应使用AI的情况下使用AI,无论是无意还是有意。

根据墨尔本大学和毕马威(KPMG)的一项最新研究,47%的受访职业专业人士在工作中不当使用过AI,63%的人表示他们见过其他员工不当使用AI。这些案例各不相同,从利用AI进行内部公司绩效评估测试的聊天,到将敏感公司数据输入第三方AI工具。

研究指出,这样做给公司带来了巨大风险。

“这种看不见的或影子AI使用不仅加剧了风险,还严重阻碍了组织检测、管理和减轻风险的能力,”报告指出。

公司面临由AI驱动的能力幻觉

工作场所专家表示,AI带来的真正变化并不是员工突然变得不诚实,而是AI能够快速、轻松、隐形地走捷径。

“在有了AI之前,隐藏工作差劲更难,”AI治理领导者、i-GENTIC AI的CEO Zahra Timsah说,“现在,员工可以在几分钟内生成一份精美的报告,管理者便会认为他们具备能力。这创造了一种生产力的错觉。”

例如,Timsah提到一名员工利用AI生成分析,并自信地展示,但在被质询时无法辩护。“公司基于没人真正理解的工作做出决策,”Timsah补充说,“最大的威胁不是考试作弊,而是公司在暗中失去内部情报,却误以为团队在独立思考。”

其他知名企业高管表示,数据显示公司刚刚开始看到影子AI使用的冰山一角。结合墨尔本研究的更全面情况:

— 44%的美国员工在未获授权的情况下使用AI工具,

— 46%上传了敏感公司信息和知识产权到公共AI平台,64%承认因为可以依赖AI而减少了工作努力。

— 超过一半的57%因未受控的AI使用而犯错,53%完全隐瞒了自己的AI使用,将AI生成的内容当作自己的。

“这不仅仅是有人将AI冒充成自己的工作;他们还通过依赖AI的废料污染了企业的水源,”亚特兰大网络安全专业发展平台Cybrary的首席运营官Nick Misner说,“虽然AI加快了编码速度,但也为组织带来了更多债务和安全漏洞。”

Misner指出,这并非孤立的趋势,而是组织准备不足的系统性失败。

“我们看到AI的采用远远超过治理的步伐,”他说,“盖洛普的全球工作场所状况报告显示,79%的全球劳动力处于‘最低限度工作’和‘积极脱离’之间。”

因此,当你将一把强大的工具交给缺乏积极性员工,而没有提供有意义的指导时,他们不会用它来提高生产力。“他们会用它以更少的努力完成相同的工作,或者更糟的是,采取一些会带来实际组织风险的投机取巧行为,”他指出。

威胁不仅仅是考试作弊,尽管本周一份澳大利亚毕马威的报道中,有28名员工被发现利用AI在内部考试中作弊,其中一名合伙人因在AI伦理考试中作弊被罚款1万美元。

“这个例子完美地说明了讽刺之处,”Misner说,“更大的威胁是组织盲目行动。如果你几乎一半的员工在不当使用AI,而你甚至都不知道,你的风险暴露是巨大的,从数据泄露到合规违规,再到你员工真正需要的技能的侵蚀。”

将非法AI使用从阴影中带出

高管层必须提出方案、制定政策并设立惩罚措施,确保AI在公司内的伦理使用。这些策略应成为首要任务。

借鉴过去的经验

有人认为,墨尔本/毕马威的数字并非AI特有。

“当互联网和搜索引擎首次进入职场时,我们也看到过类似的模式,”明尼苏达州明尼阿波利斯的AI用户参与公司Solsten的联合创始人Joe Schaeppi说,“每当出现一种强大的新工具,滥用几乎不可避免;这是人性。”

随着AI的采用增加,Schaeppi表示,管理层可能会看到更多试验和灰色地带行为,但与所有技术一样,治理和安全措施也在不断发展。“像Anthropic这样的公司已经开始采取更面向企业的方法,建立规则和限制,以在技术成熟时降低风险,”他说,“如果你是一家公司,发现任何工具上的不当行为,应该关注的是企业文化以及你如何执行政策和程序。”

依赖人类监督

为了控制工作场所的AI使用,管理层必须指派AI分析团队,审查公司对任何对企业未来至关重要的数据类型的访问权限。

“其次,合成数据集并不新鲜,是在利用你的数据的同时模拟结果的好方法,”他说,“此外,在任何内容上线之前,我总会让人类参与其中。许多公司仍然发现AI报告的数字有误。无论是确保信息仍符合品牌调性,还是确保内容适当,保持人类在环中都很重要。”

明确AI使用规则

公司还应提供经过批准的内部AI工具,并制定一条明确的规则:绝不将机密或受监管的信息输入公共AI系统。

“他们还应监控敏感数据的流向,尤其是复制粘贴到AI工具中的内容,这已成为大多数公司完全忽视的盲点,”Timsah说,“最重要的是,公司必须改变对员工的评估方式。”

Timsah还鼓励公司领导避免只奖励精美的输出。“要求员工解释他们的推理并展示理解,”她说,“AI可以生成答案,但不能取代责任感或所有权。”

Timsah团队在i-GENTIC实施的第一项政策简单明了:员工可以使用批准的AI工具,但不能将机密、客户、财务或专有信息输入公共AI系统。

“我们专注于清晰,而非限制,”她指出,“这建立了信任,因为员工知道AI的使用是被允许的,但有明确的界限。这也增强了责任感,因为每个人都明白什么是安全的,什么不是。”

公司内部培训应侧重于实际案例,而非模糊的政策,员工需要清楚了解什么是安全的,什么是不安全的。

“用AI重写一封普通邮件没问题,”Timsah说,“但上传客户合同、财务数据或专有信息到公共AI工具就不行。用AI头脑风暴点子可以,但将自己不理解的AI生成分析作为自己的工作呈现就不行。”

何时寻求外部执法帮助

当员工滥用AI涉及意图和造成伤害时,就成为法律问题。

“这包括泄露机密数据、窃取知识产权、操纵财务信息或在AI协助下实施欺诈,”Timsah说,“此时,公司可能会聘请调查人员、监管机构或执法部门。”

公司决策者还应知道,大多数滥用行为起初是出于便利,而非恶意,但一旦造成实际伤害、财务损失或欺骗,就会进入法律领域。“关键在于滥用是否导致了暴露、损失或故意隐瞒,”她补充说。

最后,重视培训

专家表示,组织应将AI使用视为高风险行为,教育员工如何安全使用。

此外,在教育员工使用AI时,管理层必须让他们明白,使用AI并不能让他们免于责任。

“员工仍然负责确保他们上传到AI平台的信息是准确的,并且不违反任何法律,”Kingsley Szamet就业律师事务所的合伙人Kelsey Szamet说,“员工还应意识到,将机密和专有信息上传到AI平台可能导致这些信息被永久暴露在平台上。”

从雇佣角度来看,一致性至关重要。如果一个员工因AI滥用被解雇,而另一个没有,可能会引发歧视和报复的责任问题。“政策和培训越完善,法律风险越小,”Szamet说。

更大的担忧不是员工会使用AI,而是他们会的。“担心的是,公司会在问题出现之前就采取措施,”Szamet补充说。

📬 订阅每日简报

我们免费、快速、有趣的全球经济简报,每个工作日早晨送达。

让我订阅

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论