広場
最新
注目
ニュース
プロフィール
ポスト
MevTears
2026-04-02 13:04:19
フォロー
実際の組織でこれが展開されているのを見てきましたが、正直なところ、今はかなり混乱しています。
あなたのマーケティングチームは顧客データを無料のChatGPTに流し込んでいます。エンジニアは独自のコードをランダムなAIデバッガーに貼り付けています。そして誰もITに報告しません。調査によると、従業員の71%がこれを行っており、57%はセキュリティチームに隠しているということです。
私が気にかかるのは、悪意ではないということです。これらの人々はただ、より速く仕事を進めようとしているだけです。問題は、無料のAIツールがエンタープライズソフトウェアとは全く異なるモデルで動作していることです。データを無料版に貼り付けると、助けを得るだけでなく、トレーニングパイプラインにデータを供給してしまいます。そのコードや顧客リスト、戦略文書は、今やモデルの重みの一部になっています。削除も、学習し直すこともできません。
2023年のサムスンを覚えていますか?エンジニアが機密のソースコードをChatGPTに貼り付けて最適化を試みました。そのコードはトレーニングデータに吸収されてしまいました。終わりです。
しかし、さらに悪いことに、あなたのチームが欧州の顧客データを適切な契約なしに米国拠点のAIツールで処理している場合、今すぐGDPRに違反している可能性があります。そして、従業員が未検証のAIを使ってレポートやクライアント向け資料を生成し、そのモデルがただ…でっち上げると?突然、誤った情報が事実としてクライアントに提示される事態に。これは単なる技術的な問題ではなく、評判の disaster になる可能性があるのです。AIは正確さと虚偽の区別を知らず、それを使う人も同じです。
本当の問題は、「ガバナンスギャップ」と呼んでいるものです。これらのツールを禁止しても効果はありません。むしろ、地下に潜らせるだけです。別のアプローチが必要です。
技術的には、これの一部を検出できます。DNS監視はOpenAI、Anthropic、Midjourneyへの通信を捕捉します。DLPルールはコードやPIIがチャットインターフェースに貼り付けられたときにフラグを立てることができます。しかし、最も効果的な検出器は?あなたの人間です。彼らは罰を恐れなければ、何を使っているか教えてくれるでしょう。
実効性のあるフレームワークは次の通りです。
まず、明確な許可・禁止リストを公開します。まだ承認済みツールがなければ正直に伝えましょう。高リスクドメインに対してDLPルールを展開します。リーダーシップからのメモを送り、「AIは有用だが、無料ツールは危険」と伝えます。
次に、3層の正式なポリシーを作成します:(承認済みのエンタープライズツール)を許可、(非機密データ用の低リスクツール)を監視、(あなたのデータをトレーニングに使うツールやセキュリティ基準を満たさないツール)を禁止。チームには役割に応じた重要ポイントを教育します。
三つ目は、ブラウザ制御を導入し、未承認のAIドメインへのアクセスを制限します。リアルタイムでPIIをリダクションできるAIゲートウェイの導入も検討してください。
四つ目は、AIガバナンスチームを設置し、定期的に新しいツールやリスクをレビューします。従業員が新しいツールをリクエストしやすい仕組みを作り、ガバナンスがボトルネックにならないようにします。
しかし、これらが機能するためには、従業員により良い選択肢を提供しなければなりません。彼らは無料ツールを使います。なぜなら、それが便利だからです。
ここで興味深いのがBYOKモデルです。Bring Your Own Key(自分の鍵を持ち込む)とは、あなたの組織がOpenAIやAnthropicのようなプロバイダーから直接APIアクセスを購入し、それをプラットフォームに接続して従業員が複数のモデルにアクセスできる仕組みです。APIキーはあなたが管理し、データはあなたの条件下で流れます。トレーニングもされません。完全な可視性とコンプライアンスを確保できます。
これこそがシャドウAIを実質的に止める方法です。禁止するのではなく、安全な道を最も簡単にすることです。
ChatGPTにデータを貼り付ける従業員は、IPを漏らそうとしているわけではありません。彼らは仕事をこなそうとしているのです。問題は従順さの欠如ではなく、市場がエンタープライズの調達速度を超えて動いていることです。それを解決すれば、リスクも解決します。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
GateSquareAprilPostingChallenge
49.84K 人気度
#
CryptoMarketSeesVolatility
80.06K 人気度
#
IsraelStrikesIranBTCPlunges
20.66K 人気度
#
OilPricesRise
250.77K 人気度
#
CeasefireExpectationsRise
441.04K 人気度
人気の Gate Fun
もっと見る
Gate Fun
KOL
最新
ファイナライズ中
リスト済み
1
JAT
just a token
時価総額:
$2.21K
保有者数:
1
0.00%
2
shpns
shit happens
時価総額:
$2.27K
保有者数:
2
0.24%
3
hyxh
hyxh
時価総額:
$0.1
保有者数:
1
0.00%
4
101011
SC
時価総額:
$0.1
保有者数:
1
0.00%
5
@
嘎嘎滴啦虾
時価総額:
$2.24K
保有者数:
1
0.15%
ピン
サイトマップ
実際の組織でこれが展開されているのを見てきましたが、正直なところ、今はかなり混乱しています。
あなたのマーケティングチームは顧客データを無料のChatGPTに流し込んでいます。エンジニアは独自のコードをランダムなAIデバッガーに貼り付けています。そして誰もITに報告しません。調査によると、従業員の71%がこれを行っており、57%はセキュリティチームに隠しているということです。
私が気にかかるのは、悪意ではないということです。これらの人々はただ、より速く仕事を進めようとしているだけです。問題は、無料のAIツールがエンタープライズソフトウェアとは全く異なるモデルで動作していることです。データを無料版に貼り付けると、助けを得るだけでなく、トレーニングパイプラインにデータを供給してしまいます。そのコードや顧客リスト、戦略文書は、今やモデルの重みの一部になっています。削除も、学習し直すこともできません。
2023年のサムスンを覚えていますか?エンジニアが機密のソースコードをChatGPTに貼り付けて最適化を試みました。そのコードはトレーニングデータに吸収されてしまいました。終わりです。
しかし、さらに悪いことに、あなたのチームが欧州の顧客データを適切な契約なしに米国拠点のAIツールで処理している場合、今すぐGDPRに違反している可能性があります。そして、従業員が未検証のAIを使ってレポートやクライアント向け資料を生成し、そのモデルがただ…でっち上げると?突然、誤った情報が事実としてクライアントに提示される事態に。これは単なる技術的な問題ではなく、評判の disaster になる可能性があるのです。AIは正確さと虚偽の区別を知らず、それを使う人も同じです。
本当の問題は、「ガバナンスギャップ」と呼んでいるものです。これらのツールを禁止しても効果はありません。むしろ、地下に潜らせるだけです。別のアプローチが必要です。
技術的には、これの一部を検出できます。DNS監視はOpenAI、Anthropic、Midjourneyへの通信を捕捉します。DLPルールはコードやPIIがチャットインターフェースに貼り付けられたときにフラグを立てることができます。しかし、最も効果的な検出器は?あなたの人間です。彼らは罰を恐れなければ、何を使っているか教えてくれるでしょう。
実効性のあるフレームワークは次の通りです。
まず、明確な許可・禁止リストを公開します。まだ承認済みツールがなければ正直に伝えましょう。高リスクドメインに対してDLPルールを展開します。リーダーシップからのメモを送り、「AIは有用だが、無料ツールは危険」と伝えます。
次に、3層の正式なポリシーを作成します:(承認済みのエンタープライズツール)を許可、(非機密データ用の低リスクツール)を監視、(あなたのデータをトレーニングに使うツールやセキュリティ基準を満たさないツール)を禁止。チームには役割に応じた重要ポイントを教育します。
三つ目は、ブラウザ制御を導入し、未承認のAIドメインへのアクセスを制限します。リアルタイムでPIIをリダクションできるAIゲートウェイの導入も検討してください。
四つ目は、AIガバナンスチームを設置し、定期的に新しいツールやリスクをレビューします。従業員が新しいツールをリクエストしやすい仕組みを作り、ガバナンスがボトルネックにならないようにします。
しかし、これらが機能するためには、従業員により良い選択肢を提供しなければなりません。彼らは無料ツールを使います。なぜなら、それが便利だからです。
ここで興味深いのがBYOKモデルです。Bring Your Own Key(自分の鍵を持ち込む)とは、あなたの組織がOpenAIやAnthropicのようなプロバイダーから直接APIアクセスを購入し、それをプラットフォームに接続して従業員が複数のモデルにアクセスできる仕組みです。APIキーはあなたが管理し、データはあなたの条件下で流れます。トレーニングもされません。完全な可視性とコンプライアンスを確保できます。
これこそがシャドウAIを実質的に止める方法です。禁止するのではなく、安全な道を最も簡単にすることです。
ChatGPTにデータを貼り付ける従業員は、IPを漏らそうとしているわけではありません。彼らは仕事をこなそうとしているのです。問題は従順さの欠如ではなく、市場がエンタープライズの調達速度を超えて動いていることです。それを解決すれば、リスクも解決します。