人工知能は労働力に地震のような衝撃をもたらし、ますます企業はその余波に対処しています。一つの新たな問題は、「シャドウAI」と呼ばれるもので、従業員が意図的かどうかにかかわらず、AIを本来の目的外で使用しているケースが増えています。メルボルン大学とKPMGの最近の調査によると、調査対象のキャリア専門家の47%が職場で不適切にAIを使用したことがあり、63%は他のスタッフが不適切にAIを使用しているのを見たと回答しています。その事例は、社内のパフォーマンス評価テストでAIを使ってチャットしたり、敏感な企業データを第三者のAIツールに入力したりとさまざまです。これらの行為は、企業にとって巨大なリスクをもたらすと調査は指摘しています。「この見えない、またはシャドウAIの使用はリスクを悪化させるだけでなく、組織のリスクを検出、管理、軽減する能力を著しく妨げる」と報告書は述べています。企業はAIによる能力の錯覚に直面している----------------------------------職場の専門家は、AIに関する本当の変化は、従業員が突然不誠実になったわけではないと指摘します。変化は、AIが迅速かつ容易に、そして見えない形でショートカットを取ることにあります。「AI以前は、仕事の質の低さを隠すのは難しかった」と、AIガバナンスのリーダーであり、エージェント型AIコンプライアンスプラットフォームi-GENTIC AIのCEOであるザフラ・ティムサは述べています。「今や従業員は数分で洗練されたレポートを作成でき、マネージャーはそれを能力と誤認します。これが生産性の錯覚を生み出しているのです。」例えば、ティムサは、AIを使って分析を生成し、自信を持って提示する従業員を例に挙げますが、その内容について質問されると弁護できないケースです。「会社は誰も本当に理解していない仕事に基づいて意思決定を行っている」とティムサは付け加えます。「最大の脅威は、試験の不正行為ではありません。企業が静かに内部情報を失いながら、チームが独立して考えていると信じていることです。」他の著名な企業幹部も、データは企業がシャドウAIの使用の氷山の一角を見始めたばかりだと示しています。メルボルンの調査からの全体像を考えてみましょう。--- 米国の労働者の44%が適切な許可なしにAIツールを使用している--- 46%が敏感な企業情報や知的財産を公開AIプラットフォームにアップロードしており、64%はAIに頼ることで仕事の努力を減らしていると認めています。--- 半数以上の57%が、未チェックのAI使用によりミスを犯し、53%はAIの使用を完全に隠し、AI生成のコンテンツを自分のものとして提示しています。「人々がAIを自分の仕事として偽るだけでなく、AIの雑な出力に頼ることで企業の資源を汚染しているのです」と、アトランタを拠点とするサイバーセキュリティ専門家育成プラットフォームのCybraryのCOOニック・ミスナーは述べています。「AIはコーディングの速度を加速させますが、その一方で組織に負債やセキュリティの脆弱性をもたらしています。」ミスナーは、これは孤立した傾向ではなく、組織の準備不足のシステム的な失敗だと指摘します。「AIの採用はガバナンスを圧倒的に上回っています」と彼は言います。「Gallupの『グローバル職場の現状』レポートによると、世界の労働人口の79%が『最小限の努力』から『積極的に関与しない』の間にいると示されています。」したがって、関与度の低い労働者に強力なツールを渡し、意味のある指導なしに使わせると、彼らは生産性向上のためではなく、同じ仕事をより少ない努力で行ったり、ひどい場合には組織のリスクを生むような手抜きをしたりすることになります。脅威は試験の不正だけではありませんが、今週のKPMGオーストラリアのケースでは、28人の従業員が内部試験でAIを使った不正行為を行い、そのうちの一人のパートナーがAI倫理試験の不正で1万ドルの罰金を科されました。「その例は、皮肉を完璧に示しています」とミスナーは言います。「より大きな脅威は、組織が盲目になっていることです。労働力のほぼ半数が不適切にAIを使用しているのに気づかず、リスクの露出は計り知れません。データ漏洩やコンプライアンス違反、実際に必要なスキルの侵食まで。」シャドウAIの悪用を排除する----------------------------経営層は、AIが倫理的に使用されていることを確実にするために、提案、方針、罰則を強化しなければなりません。これらの戦略は最優先事項にすべきです。### **過去から学ぶ**メルボルン/KPMGの数字は、AIに特有のものではないと考えるのは妥当です。「インターネットや検索エンジンが職場に登場したときと似たパターンを見ました」と、ミネアポリスのAIベースのユーザーエンゲージメント企業Solstenの共同創設者ジョー・シェーピは述べています。「強力な新ツールが登場すると、誤用は避けられません。それが人間の本性です。」AIの採用が進むにつれ、シェーピは管理者はより多くの実験やグレーゾーンの行動を目にするだろうと予測していますが、すべての技術と同様に、ガバナンスとガードレールは進化します。「Anthropicのような企業はすでに、リスクを減らすためのルールや制約を組み込む、よりエンタープライズ志向のアプローチを取っています」と彼は述べています。「もしあなたの会社で不適切な行動を見つけたら、その懸念は文化とポリシーの施行に置くべきです。」### **人間の監督を重視する**職場のAIの関与を管理するために、経営陣はAI分析チームに、企業の将来にとって重要なデータアクセスと権限の見直しを任せる必要があります。「次に、合成データセットは新しいものではなく、データを活用しながら結果をモデル化する優れた方法です」と彼は言います。「さらに、何かを公開する前に必ず人間を関与させるべきです。多くの企業がAIの報告数値の誤りを見つけています。メッセージングがブランドに沿っているか、適切かどうかを確認するためにも、人間の関与は重要です。」### **AI使用ルールを明確にする**企業は承認された内部AIツールを提供し、明確なルールを設定すべきです。絶対に機密情報や規制対象の情報を公開AIシステムに入力してはいけません。「また、敏感なデータの流れを監視すべきです。特にコピー&ペーストしてAIツールに入力する行為は、多くの企業が完全に見落としている盲点です」とティムサは述べています。「最も重要なのは、従業員の評価方法を変えることです。」ティムサは、従業員に対しても、洗練された出力だけを評価しないよう促しています。「従業員に、理由を説明させ、理解を示させることを求めてください」と彼女は言います。「AIは回答を生成できますが、所有権や責任を置き換えることはできません。」i-GENTICで最初に導入したポリシーはシンプルで明確でした。従業員は承認されたAIツールを使えますが、機密情報やクライアント情報、財務情報、または企業秘密を公開AIシステムに入力してはいけません。「私たちは明確さに焦点を当て、制限ではなく信頼を築きました」と彼女は述べています。「これにより、従業員はAIの使用が許可されていることを知りながらも、明確な境界線を持つことができました。責任も生まれました。何が安全で何が危険かを皆が理解していたからです。」社内研修は、曖昧なポリシーではなく、実践的な例に焦点を当てるべきです。従業員は何が安全で何が危険かを明確に理解する必要があります。「AIを使って一般的なメールを書き直すのは問題ありません」とティムサは言います。「クライアント契約書や財務データ、企業秘密を公開AIツールにアップロードするのはダメです。アイデア出しにAIを使うのは問題ありません。理解していないAI生成の分析を自分の仕事として提示するのはダメです。」### **外部の法的支援を必要とする場合**従業員のAIの誤用が法的問題になるのは、意図と被害がある場合です。「これには機密データの漏洩、知的財産の盗用、財務情報の操作、AI支援による詐欺行為などが含まれます」とティムサは述べています。「その段階で、調査官や規制当局、法執行機関を関与させることがあります。」企業の意思決定者は、多くの誤用は便利さから始まるが、実際に被害や金銭的リスク、欺瞞に発展した場合は法的な領域に入ることを理解しておく必要があります。「重要なのは、その誤用が露出や損失、意図的な隠蔽につながったかどうかです」とティムサは付け加えています。### **最後に、トレーニングに注力**専門家は、AIの使用を他の高リスク行動と同様に扱い、従業員に安全な使い方を教育することが重要だと述べています。さらに、従業員にAIの使用について教育する際には、AIを使うことが免罪符になるわけではないことを認識させる必要があります。「従業員は、自分がアップロードする情報が正確であり、法律に違反していないことを保証する責任があります」と、キングズリー・ザメット雇用弁護士事務所のパートナー、ケルシー・ザメットは述べています。「また、機密情報や企業秘密をAIプラットフォームにアップロードすると、その情報が永続的に公開される可能性があることも認識させる必要があります。」雇用の観点からは、一貫性が重要です。ある従業員がAIの誤用で解雇され、別の従業員がそうでない場合、差別や報復のリスクが生じます。「より強固なポリシーとトレーニング体制があれば、訴訟リスクは低減します」とザメットは述べています。最大の懸念は、従業員がAIを使うこと自体ではなく、「これを事前に対処できるかどうか」ですと、ザメットは付け加えました。📬 デイリーブリーフに登録------------------------------### 毎週平日の朝にお届けする、無料で迅速かつ楽しいグローバル経済の概要です。登録する
従業員がAIを有害な方法で使用している可能性があり、企業はその状況を把握できていないかもしれません
人工知能は労働力に地震のような衝撃をもたらし、ますます企業はその余波に対処しています。
一つの新たな問題は、「シャドウAI」と呼ばれるもので、従業員が意図的かどうかにかかわらず、AIを本来の目的外で使用しているケースが増えています。
メルボルン大学とKPMGの最近の調査によると、調査対象のキャリア専門家の47%が職場で不適切にAIを使用したことがあり、63%は他のスタッフが不適切にAIを使用しているのを見たと回答しています。その事例は、社内のパフォーマンス評価テストでAIを使ってチャットしたり、敏感な企業データを第三者のAIツールに入力したりとさまざまです。
これらの行為は、企業にとって巨大なリスクをもたらすと調査は指摘しています。
「この見えない、またはシャドウAIの使用はリスクを悪化させるだけでなく、組織のリスクを検出、管理、軽減する能力を著しく妨げる」と報告書は述べています。
企業はAIによる能力の錯覚に直面している
職場の専門家は、AIに関する本当の変化は、従業員が突然不誠実になったわけではないと指摘します。変化は、AIが迅速かつ容易に、そして見えない形でショートカットを取ることにあります。
「AI以前は、仕事の質の低さを隠すのは難しかった」と、AIガバナンスのリーダーであり、エージェント型AIコンプライアンスプラットフォームi-GENTIC AIのCEOであるザフラ・ティムサは述べています。「今や従業員は数分で洗練されたレポートを作成でき、マネージャーはそれを能力と誤認します。これが生産性の錯覚を生み出しているのです。」
例えば、ティムサは、AIを使って分析を生成し、自信を持って提示する従業員を例に挙げますが、その内容について質問されると弁護できないケースです。「会社は誰も本当に理解していない仕事に基づいて意思決定を行っている」とティムサは付け加えます。「最大の脅威は、試験の不正行為ではありません。企業が静かに内部情報を失いながら、チームが独立して考えていると信じていることです。」
他の著名な企業幹部も、データは企業がシャドウAIの使用の氷山の一角を見始めたばかりだと示しています。メルボルンの調査からの全体像を考えてみましょう。
— 米国の労働者の44%が適切な許可なしにAIツールを使用している
— 46%が敏感な企業情報や知的財産を公開AIプラットフォームにアップロードしており、64%はAIに頼ることで仕事の努力を減らしていると認めています。
— 半数以上の57%が、未チェックのAI使用によりミスを犯し、53%はAIの使用を完全に隠し、AI生成のコンテンツを自分のものとして提示しています。
「人々がAIを自分の仕事として偽るだけでなく、AIの雑な出力に頼ることで企業の資源を汚染しているのです」と、アトランタを拠点とするサイバーセキュリティ専門家育成プラットフォームのCybraryのCOOニック・ミスナーは述べています。「AIはコーディングの速度を加速させますが、その一方で組織に負債やセキュリティの脆弱性をもたらしています。」
ミスナーは、これは孤立した傾向ではなく、組織の準備不足のシステム的な失敗だと指摘します。
「AIの採用はガバナンスを圧倒的に上回っています」と彼は言います。「Gallupの『グローバル職場の現状』レポートによると、世界の労働人口の79%が『最小限の努力』から『積極的に関与しない』の間にいると示されています。」
したがって、関与度の低い労働者に強力なツールを渡し、意味のある指導なしに使わせると、彼らは生産性向上のためではなく、同じ仕事をより少ない努力で行ったり、ひどい場合には組織のリスクを生むような手抜きをしたりすることになります。
脅威は試験の不正だけではありませんが、今週のKPMGオーストラリアのケースでは、28人の従業員が内部試験でAIを使った不正行為を行い、そのうちの一人のパートナーがAI倫理試験の不正で1万ドルの罰金を科されました。
「その例は、皮肉を完璧に示しています」とミスナーは言います。「より大きな脅威は、組織が盲目になっていることです。労働力のほぼ半数が不適切にAIを使用しているのに気づかず、リスクの露出は計り知れません。データ漏洩やコンプライアンス違反、実際に必要なスキルの侵食まで。」
シャドウAIの悪用を排除する
経営層は、AIが倫理的に使用されていることを確実にするために、提案、方針、罰則を強化しなければなりません。これらの戦略は最優先事項にすべきです。
過去から学ぶ
メルボルン/KPMGの数字は、AIに特有のものではないと考えるのは妥当です。
「インターネットや検索エンジンが職場に登場したときと似たパターンを見ました」と、ミネアポリスのAIベースのユーザーエンゲージメント企業Solstenの共同創設者ジョー・シェーピは述べています。「強力な新ツールが登場すると、誤用は避けられません。それが人間の本性です。」
AIの採用が進むにつれ、シェーピは管理者はより多くの実験やグレーゾーンの行動を目にするだろうと予測していますが、すべての技術と同様に、ガバナンスとガードレールは進化します。「Anthropicのような企業はすでに、リスクを減らすためのルールや制約を組み込む、よりエンタープライズ志向のアプローチを取っています」と彼は述べています。「もしあなたの会社で不適切な行動を見つけたら、その懸念は文化とポリシーの施行に置くべきです。」
人間の監督を重視する
職場のAIの関与を管理するために、経営陣はAI分析チームに、企業の将来にとって重要なデータアクセスと権限の見直しを任せる必要があります。
「次に、合成データセットは新しいものではなく、データを活用しながら結果をモデル化する優れた方法です」と彼は言います。「さらに、何かを公開する前に必ず人間を関与させるべきです。多くの企業がAIの報告数値の誤りを見つけています。メッセージングがブランドに沿っているか、適切かどうかを確認するためにも、人間の関与は重要です。」
AI使用ルールを明確にする
企業は承認された内部AIツールを提供し、明確なルールを設定すべきです。絶対に機密情報や規制対象の情報を公開AIシステムに入力してはいけません。
「また、敏感なデータの流れを監視すべきです。特にコピー&ペーストしてAIツールに入力する行為は、多くの企業が完全に見落としている盲点です」とティムサは述べています。「最も重要なのは、従業員の評価方法を変えることです。」
ティムサは、従業員に対しても、洗練された出力だけを評価しないよう促しています。「従業員に、理由を説明させ、理解を示させることを求めてください」と彼女は言います。「AIは回答を生成できますが、所有権や責任を置き換えることはできません。」
i-GENTICで最初に導入したポリシーはシンプルで明確でした。従業員は承認されたAIツールを使えますが、機密情報やクライアント情報、財務情報、または企業秘密を公開AIシステムに入力してはいけません。
「私たちは明確さに焦点を当て、制限ではなく信頼を築きました」と彼女は述べています。「これにより、従業員はAIの使用が許可されていることを知りながらも、明確な境界線を持つことができました。責任も生まれました。何が安全で何が危険かを皆が理解していたからです。」
社内研修は、曖昧なポリシーではなく、実践的な例に焦点を当てるべきです。従業員は何が安全で何が危険かを明確に理解する必要があります。
「AIを使って一般的なメールを書き直すのは問題ありません」とティムサは言います。「クライアント契約書や財務データ、企業秘密を公開AIツールにアップロードするのはダメです。アイデア出しにAIを使うのは問題ありません。理解していないAI生成の分析を自分の仕事として提示するのはダメです。」
外部の法的支援を必要とする場合
従業員のAIの誤用が法的問題になるのは、意図と被害がある場合です。
「これには機密データの漏洩、知的財産の盗用、財務情報の操作、AI支援による詐欺行為などが含まれます」とティムサは述べています。「その段階で、調査官や規制当局、法執行機関を関与させることがあります。」
企業の意思決定者は、多くの誤用は便利さから始まるが、実際に被害や金銭的リスク、欺瞞に発展した場合は法的な領域に入ることを理解しておく必要があります。「重要なのは、その誤用が露出や損失、意図的な隠蔽につながったかどうかです」とティムサは付け加えています。
最後に、トレーニングに注力
専門家は、AIの使用を他の高リスク行動と同様に扱い、従業員に安全な使い方を教育することが重要だと述べています。
さらに、従業員にAIの使用について教育する際には、AIを使うことが免罪符になるわけではないことを認識させる必要があります。
「従業員は、自分がアップロードする情報が正確であり、法律に違反していないことを保証する責任があります」と、キングズリー・ザメット雇用弁護士事務所のパートナー、ケルシー・ザメットは述べています。「また、機密情報や企業秘密をAIプラットフォームにアップロードすると、その情報が永続的に公開される可能性があることも認識させる必要があります。」
雇用の観点からは、一貫性が重要です。ある従業員がAIの誤用で解雇され、別の従業員がそうでない場合、差別や報復のリスクが生じます。「より強固なポリシーとトレーニング体制があれば、訴訟リスクは低減します」とザメットは述べています。
最大の懸念は、従業員がAIを使うこと自体ではなく、「これを事前に対処できるかどうか」ですと、ザメットは付け加えました。
📬 デイリーブリーフに登録
毎週平日の朝にお届けする、無料で迅速かつ楽しいグローバル経済の概要です。
登録する