員工正在以有害的方式使用人工智能——而公司可能毫不知情

人工智慧如同地震般席捲勞動力市場,越來越多的公司正面臨餘震。

一個日益嚴重的問題是所謂的「影子AI」,即員工在不應該使用AI的情況下使用AI,無論是無意還是有意。

根據墨爾本大學與畢馬威(KPMG)最近的研究,調查中有47%的職業專業人士在工作中不當使用過AI,63%的人表示他們見過其他員工不當使用AI。這些案例包括用AI在公司內部績效評估測試中聊天,或將敏感公司資料輸入第三方AI工具。

研究指出,這樣做會給公司帶來巨大風險。

「這種看不見或影子的AI使用不僅加劇了風險,也嚴重阻礙組織發現、管理和降低風險的能力,」報告指出。

公司面臨由AI驅動的能力幻覺

工作場所專家表示,AI帶來的真正轉變並非員工突然變得不誠實,而是AI能快速、輕鬆且無形地走捷徑。

「在AI出現之前,隱藏工作不佳較為困難,」AI治理領導者兼i-GENTIC AI的CEO Zahra Timsah說,該平台是一個代理式AI合規平台。「現在,員工可以在幾分鐘內產生一份精美的報告,管理者便會假設其能力,這創造了一種生產力的錯覺。」

例如,Timsah提到一名員工利用AI生成分析,並自信地呈現,但在被質詢時卻無法辯護。「公司基於沒有人真正理解的工作做出決策,」Timsah補充。「最大的威脅不是在考試中作弊,而是公司在默默失去內部智慧,卻相信團隊能獨立思考。」

其他高層企業主管表示,數據顯示公司才剛開始看到影子AI使用的冰山一角。從墨爾本的研究可以看到更完整的情況:

— 44%的美國員工在未經適當授權的情況下使用AI工具,

— 46%曾將敏感公司資訊和智慧財產上傳至公開AI平台,64%則承認因為可以依賴AI而減少工作努力。

— 超過一半的57%因未受控的AI使用而犯錯,53%則完全隱瞞AI的使用,將AI生成的內容當作自己的。

「不僅是有人將AI冒充成自己的工作,他們還在依賴AI的廢料,污染企業資源,」亞特蘭大網路安全專業發展平台Cybrary的COO Nick Misner說。「雖然AI加快了我們編碼的速度,但也帶來更多債務和安全漏洞。」

Misner指出,這並非孤立的趨勢,而是組織準備不足的系統性失敗。

「我們看到AI的採用速度遠遠超過治理能力,」他說。「Gallup的全球工作狀況報告指出,79%的全球勞動力處於『最低限度工作』與『積極脫離』之間。」

因此,當你將一個缺乏動力的員工交給一個強大的工具,卻沒有提供有意義的指導,他們不會用它來提高生產力。「他們會用它來用更少的努力完成相同的工作,或者更糟的是,走捷徑,造成真正的組織風險,」他指出。

這個威脅不僅僅是考試作弊,儘管本週一份澳洲畢馬威的報告中,28名員工被查出利用AI作弊內部考試,其中一位合夥人因在AI倫理考試中作弊被罰款1萬美元。

「那個例子完美展現了諷刺,」Misner說。「更大的威脅是組織盲目行動。如果你幾乎一半的員工在不當使用AI,而你甚至不知道,你的風險暴露是巨大的,從資料外洩到合規違規,再到你員工真正需要的技能被侵蝕。」

將邪惡的AI使用從陰影中帶出

高層管理層必須提出方案、政策和懲罰措施,確保公司內的AI使用符合道德。這些策略應該列為優先事項。

從過去學習

有充分理由認為,墨爾本/畢馬威的數據並非AI特有。

「我們在網路和搜尋引擎首次進入職場時也看到類似的模式,」明尼蘇達州明尼阿波利斯的AI用戶參與公司Solsten的共同創辦人Joe Schaeppi說。「每當一個強大的新工具出現,濫用幾乎是不可避免的;這是人性。」

隨著AI採用率增加,Schaeppi表示管理層可能會看到更多實驗和灰色地帶行為,但與所有技術一樣,治理和規範也在演進。「像Anthropic這樣的公司已經開始採取更企業導向的方法,建立規則和限制來降低風險,隨著技術成熟,」他指出。「如果你是公司,看到任何工具上的不當行為,應該關注的是文化以及你如何執行政策和程序。」

重視人類監督

為了控制工作場所的AI應用,管理層必須指派AI分析團隊,審查公司資料存取權限,尤其是對於關乎公司未來的資料類型。

「其次,合成資料集並不新鮮,是在利用資料的同時建模結果的好方法,」他說。「此外,我總是會在任何東西上線前讓人類參與。許多公司仍然發現AI報告數據錯誤。無論是確保訊息仍符合品牌或適當性,保持人類在流程中都很重要。」

明確規範AI使用規則

公司還應提供經批准的內部AI工具,並制定一條明確規則:切勿將機密或受規範的資訊放入公開AI系統。

「他們還應監控敏感資料的流向,尤其是複製粘貼到AI工具中,這已成為大多數公司完全忽視的盲點,」Timsah說。「最重要的是,公司必須改變評估員工的方式。」

Timsah也鼓勵公司領導避免只獎勵精美的輸出。「要求員工解釋他們的推理並展示理解,」她說。「AI可以產生答案,但無法取代所有權或責任感。」

Timsah團隊在i-GENTIC實施的第一項政策簡單明確:員工可以使用經批准的AI工具,但不得將機密、客戶、財務或專有資訊輸入公開AI系統。

「我們專注於清楚,而非限制,」她指出。「這建立了信任,因為員工知道AI的使用是被允許的,但有明確界限。也建立了責任感,因為每個人都知道什麼是安全的,什麼不是。」

公司內部培訓應著重於實例,而非模糊的政策,讓員工清楚了解什麼是安全的,什麼不是。

「用AI重寫一般性電子郵件沒問題,」Timsah說。「將客戶合約、財務資料或專有資訊上傳到公開AI工具則不行。用AI來腦力激盪點子可以,但將自己不理解的AI生成分析當作自己的工作則不行。」

何時需要外部執法協助

員工濫用AI若涉及意圖與傷害,則可能成為法律問題。

「這包括洩露機密資料、竊取智慧財產、操縱財務資訊或在AI協助下詐騙,」Timsah說。「此時,公司可能會聘請調查員、監管機構或執法部門介入。」

公司決策者也應知道,大多數濫用行為起因於便利,而非惡意,但一旦造成實質傷害、財務損失或欺騙,就會跨入法律範疇。「關鍵在於濫用是否導致曝光、損失或故意隱瞞,」Timsah補充。

最後,重視培訓


專家表示,組織應將AI使用視為高風險行為,並教育員工如何安全使用。

此外,管理層在教育員工時,必須讓他們知道使用AI並不代表可以免責。

「員工仍須負責確保上傳到AI平台的資訊正確,且不違反任何法律,」Kingsley Szamet就業律師合夥人Kelsey Szamet說。「員工也應知道,將機密和專有資訊上傳到AI平台可能導致這些資訊永久曝光在平台上。」

從就業角度來看,一致性是關鍵。如果一名員工因AI濫用被解僱,而另一名員工卻未受到懲處,將引發歧視和報復的法律風險。「完善的政策和培訓流程越健全,訴訟風險越低,」Szamet說。

更大的問題不在於員工會不會使用AI,而在於他們一定會。「關鍵在於公司能否提前應對,避免問題發生,」Szamet補充。

📬 註冊每日快訊

我們每個工作日早晨提供的免費、快速且有趣的全球經濟簡報。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言