従業員がAIを有害な方法で使用している可能性があり、企業はその状況を把握できていないかもしれません

人工知能は労働力に地震のような衝撃をもたらし、ますます企業はその余波に対処しています。

一つの新たな問題は、「シャドウAI」と呼ばれるもので、従業員が意図的・非意図的にAIを本来の用途以外で使用しているケースが増えています。

メルボルン大学とKPMGの最近の調査によると、調査対象のキャリア専門家の47%が職場で不適切にAIを使用したことがあり、63%は他のスタッフが不適切にAIを使用しているのを見たと回答しています。その事例は、社内のパフォーマンス評価テストでAIを使ってチャットしたり、敏感な企業データを第三者のAIツールに入力したりとさまざまです。

これらの行為は、企業にとって巨大なリスクをもたらすと調査は指摘しています。

「この見えない、またはシャドウAIの使用はリスクを悪化させるだけでなく、組織のリスク検出、管理、軽減の能力を著しく妨げる」と報告書は述べています。

企業はAIによる能力の錯覚に直面している

職場の専門家は、AIに関する本当の変化は、従業員が突然不誠実になったわけではないと指摘します。変化は、AIが迅速かつ容易に、そして見えない形でショートカットを取ることにあります。

「AI以前は、仕事の質を隠すのは難しかった」と、AIガバナンスのリーダーであり、エージェント型AIコンプライアンスプラットフォームi-GENTIC AIのCEOであるザフラ・ティムサは言います。「今や従業員は数分で洗練されたレポートを作成でき、マネージャーはそれを能力と誤認します。これが生産性の錯覚を生み出しているのです。」

例えば、ティムサは、AIを使って分析を生成し、自信を持って提示する従業員を例に挙げますが、その内容を質問されると弁護できないケースです。「会社は誰も本当に理解していない仕事に基づいて意思決定を行っている」とティムサは付け加えます。「最大の脅威は、試験の不正行為ではありません。企業が静かに内部情報を失いながら、チームが独立して考えていると信じていることです。」

他の著名な企業幹部も、データは企業がシャドウAIの使用の氷山の一角を見始めたばかりだと示しています。メルボルンの調査からの全体像を考えてみましょう。

— 米国の労働者の44%が適切な許可なしにAIツールを使用している

— 46%が敏感な企業情報や知的財産を公開AIプラットフォームにアップロードしており、64%はAIに頼ることで仕事の努力を減らしていると認めています。

— 半数以上の57%が、未監視のAI使用により仕事でミスをしており、53%はAIの使用を完全に隠し、AI生成のコンテンツを自分のものとして提示しています。

「AIを自分の仕事として偽るだけでなく、AIの雑な出力に頼ることで企業の資源を汚染しているのです」と、アトランタを拠点とするサイバーセキュリティ専門家育成プラットフォームのCybraryのCOOニック・ミスナーは述べます。「AIはコーディングの速度を加速させますが、その一方で組織に負債やセキュリティの脆弱性をもたらしています。」

ミスナーは、これは孤立した傾向ではなく、組織の準備不足のシステム的な失敗だと指摘します。

「私たちはAIの採用がガバナンスを圧倒的に上回っているのを見ています」と彼は言います。「ギャラップの『グローバル職場の現状』レポートによると、世界の労働人口の79%が『最小限の努力をしている』か『積極的に関与していない』状態にあります。」

したがって、関与度の低い労働者に強力なツールを渡しながら、意味のある指導を行わなければ、彼らは生産性向上のためではなく、同じ仕事をより少ない努力で行ったり、ひどい場合には組織のリスクを生むような手抜きをしたりするだけです。

脅威は試験の不正だけではありません。今週のKPMGオーストラリアのケースでは、28人の従業員が内部試験でAIを使った不正行為を行い、そのうちの一人のパートナーがAI倫理試験の不正で1万ドルの罰金を科されました。

「その例は、皮肉を完璧に示しています」とミスナーは言います。「より大きな脅威は、組織が盲目になっていることです。労働力のほぼ半数が不適切にAIを使用しているのに気づかず、そのリスクが巨大になるのです。データ漏洩、コンプライアンス違反、必要なスキルの喪失などです。」

シャドウAIの悪用を排除する

経営層は、AIの倫理的な使用を確保するために提案や方針、罰則を強化しなければなりません。これらの戦略は最優先事項にすべきです。

過去から学ぶ

メルボルン/KPMGの数字は、AIに特有のものではないと考えるのは妥当です。

「インターネットや検索エンジンが職場に登場したときと似たパターンを見ました」と、ミネアポリスのAIベースのユーザーエンゲージメント企業Solstenの共同創設者ジョー・シャエピは言います。「強力な新ツールが登場すると、誤用は避けられません。それが人間の本性です。」

AIの採用が進むにつれ、シャエピは管理者はより多くの実験やグレーゾーンの行動を目にするだろうと予測していますが、すべての技術と同様に、ガバナンスとガードレールは進化します。「Anthropicのような企業はすでに、リスクを低減するためのルールや制約を組み込む、よりエンタープライズ志向のアプローチを取っています」と彼は述べます。「もしあなたの会社で不適切な行動を見つけたら、その懸念は文化とポリシーの施行に置くべきです。」

人間の監督を重視する

職場のAIの関与を管理するために、経営陣はAI分析チームに、企業の将来にとって重要なデータアクセスと権限の見直しを任せる必要があります。

「次に、合成データセットは新しいものではなく、データを活用しながら結果をモデル化する優れた方法です」と彼は言います。「さらに、何かを公開する前に必ず人間を関与させるべきです。多くの企業がAIの報告数値の誤りを見つけています。メッセージングがブランドに沿っているか、適切かを確認するためにも、人間の関与は重要です。」

AI使用ルールを明確にする

企業は承認された内部AIツールを提供し、明確なルールを設定すべきです。秘密情報や規制対象の情報を公開AIシステムに入力してはいけません。

「特に、敏感なデータの流れを監視し、コピー&ペーストによるAIツールへの入力は、多くの企業が見落としている大きな盲点です」とティムサは言います。「最も重要なのは、従業員の評価方法を変えることです。」

ティムサはまた、従業員に対して、洗練された出力だけを評価するのではなく、「理由を説明させ、理解を示させる」ことを推奨します。「AIは答えを生成できますが、所有権や責任を置き換えることはできません。」

i-GENTICで最初に導入したポリシーはシンプルで明確でした。従業員は承認されたAIツールを使えますが、秘密情報、クライアント情報、財務情報、または企業秘密を公開AIシステムに入力してはいけません。

「明確さを重視し、制限ではありません」と彼女は述べます。「これにより、従業員はAIの使用が許可されていることを理解し、境界線を知ることで信頼が生まれました。また、誰もが何が安全で何が危険かを理解しているため、責任も生まれました。」

社内研修は、曖昧なポリシーではなく、実践的な例に焦点を当てるべきです。従業員は何が安全で何が危険かを明確に理解する必要があります。

「AIを使って一般的なメールを書き直すのは問題ありません」とティムサは言います。「クライアント契約書や財務データ、企業秘密を公開AIツールにアップロードするのはダメです。アイデア出しにAIを使うのは問題ありません。理解していないAI生成の分析を自分の仕事として提示するのもダメです。」

外部の支援を必要とする場合

従業員のAIの誤用は、意図と被害がある場合に法的問題となります。

「これには、秘密データの漏洩、知的財産の盗用、財務情報の操作、AI支援による詐欺などが含まれます」とティムサは述べます。「その段階で、調査官や規制当局、法執行機関を関与させることがあります。」

企業の意思決定者は、ほとんどの誤用は便利さから始まるが、実際に被害や金銭的リスク、欺瞞に発展した場合は法的な領域に入ることを理解しておく必要があります。「重要なのは、その誤用が露出、損失、または意図的な隠蔽につながったかどうかです」とティムサは付け加えます。

最後に、トレーニングに注力

専門家は、組織はAIの使用を他の高リスク行動と同様に扱い、従業員に安全な使い方を教育すべきだと指摘します。

さらに、従業員にAIの使用を教育する際には、AIを使うことが免罪符になるわけではないことを認識させる必要があります。

「従業員は、自分がアップロードする情報が正確であり、法律に違反していないことを保証する責任があります」と、キングズリー・ザメット雇用弁護士事務所のパートナー、ケルシー・ザメットは言います。「また、秘密情報や企業秘密をAIプラットフォームにアップロードすると、その情報が永続的に公開される可能性があることも認識させる必要があります。」

雇用の観点からは、一貫性が重要です。ある従業員がAIの誤用で解雇され、別の従業員がそうでない場合、差別や報復のリスクが生じます。「より強固なポリシーとトレーニング体制があれば、訴訟リスクは低減します」とザメットは述べます。

最大の懸念は、従業員がAIを使うこと自体ではなく、「これを未然に防ぐ企業の取り組み」にあります」と彼女は付け加えます。

📬 デイリーブリーフに登録

毎朝配信される、無料で迅速かつ楽しいグローバル経済の概要です。

登録する

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン