サイバー犯罪はAIが取り組んでいない唯一の仕事かもしれないと、研究は示唆している

要約

  • ケンブリッジ、エディンバラ、ストラスクライドの研究者たちは、ChatGPTのリリース後に投稿された97,895件のサイバー犯罪フォーラムのスレッドを分析した。
  • WormGPTのような「ダークAI」ツールは文化的な話題を呼んだが、ほとんど動作するマルウェアを生成しなかった。一方、脱獄されたチャットボットは、数日以上動作させ続けるのがますます難しくなっている。
  • 最も測定可能なAI駆動の犯罪はハッキングではない。大量生産されたSEOスパム、ロマンス詐欺、AI生成のヌード写真が1ドルで販売されることだ。

3年間、サイバーセキュリティ企業、政府、AI研究所は、生成AIが新たな超強化ハッカーの世代を解き放つと警告してきた。実際に調査した新しい学術論文によると、超強化ハッカーは主にChatGPTを使ってスパムを書いたり、遊びでヌード写真を生成したりしている。 タイトルは「スタンドアロン・コンプレックスかバイバークライムか?」で、ケンブリッジや他の大学の研究者たちがarXivに発表したもので、サイバー犯罪の地下世界が実際にAIをどのように採用しているのかを理解しようとしているものであり、サイバーセキュリティベンダーの言うことを調査したものではない。 「我々はここで、サイバー犯罪地下世界におけるGenAI採用の初期パターンを混合手法で実証的に研究した最初の試みの一つを提示する」と研究者たちは書いている。

チームは、2022年11月にChatGPTがリリースされた後に投稿された97,895件のフォーラムスレッドを分析し、ケンブリッジサイバー犯罪センターのCrimeBBデータセットから抽出した。トピックモデルを実行し、3,200以上のスレッドを手動で読み、エスノグラフィー的に現場に浸った。  結論はAI終末論コミュニティにとって好意的ではない:サンプル内のスレッドの97.3%は「その他」と分類され、実際にはAIを使った犯罪についてではなかった。AIを使ったコードツールを使ったのはわずか1.9%だった。 『制限のないChatGPT以上のものではない』 2023年にヘッドラインを飾ったWormGPT、FraudGPT、そして悪意のあるとされるチャットボットの波を覚えているだろうか?フォーラムのデータは異なる物語を語っている。

研究者たちが見つけたところによると、「ダークAI」製品についての投稿のほとんどは、無料アクセスを求めるもの、推測やツールが実際に動作しないという不満だった。ある人気のダークAIサービスの開発者は、最終的にフォーラムのメンバーに対して、その製品はマーケティングのための演習だったと認めた。 「結局のところ、[CybercrimeAI]は制限のないChatGPTに過ぎない」と開発者は書き、プロジェクトは終了した。「インターネット上の誰でもよく知られた脱獄技術を使えば、同じかそれ以上の結果を得ることができる。」 2024年末までには、主流モデルの脱獄は使い捨てになっていた。ほとんどは1週間以内に動作しなくなる。オープンソースモデルは無期限に脱獄できるが、遅く、リソースを大量に消費し、時代遅れになっている。 「AIシステムのガードレールは有用かつ効果的であることが証明されている」と著者たちは結論づけている。これは彼ら自身が「逆説的な発見」と呼ぶ重要な論文の中で述べている。 バイブコーディングは実在する。バイブハッキングは、ほとんどの場合そうではない この論文は、Anthropicの2025年8月の広く報道された報告書に直接言及している。そこでは、Claude Codeが17の組織に対して「バイブハッキング」恐喝キャンペーンを行ったとされている。しかし、ケンブリッジのチームのデータは、そのパターンを広範な地下世界で示していない。 調査したフォーラムでは、AIコーディングアシスタントは、主流の開発者が使うのと同じように使われている:自動補完やStack Overflowの代替として、すでにスキルのあるコーダーが使っている。低スキルの行為者は、既製のスクリプトを使い続けている。なぜなら、既製のスクリプトは動作するからだ。 研究者たちは、ハッカーでさえも自分たちのバイブコードハッキングツールを信用していないことを発見した。「AI支援のコーディングは両刃の剣だ。開発を加速させる一方で、不安全なコードやサプライチェーンの脆弱性といったリスクも増大させる」と、研究者が監視したフォーラムのユーザーは述べた。 別のユーザーは長期的なスキル喪失について警告した。「今や、AIを使ったコードはあなたのスキルの非常に速い負の劣化を引き起こすことが明らかだ」とハッカーはフォーラムで書いた。「あなたの目的がSaaS詐欺を量産し、コードの質やセキュリティ、パフォーマンスに関心がないなら、バイブコードは有効かもしれない。(フィッシングにも有効そうだ)」。

これは、2025年にEuropolが警告した、完全自律型AIが犯罪ネットワークを支配する可能性についての警告と対照的だ。 AIが実際に犯罪者を支援している場所 混乱は、底辺の階層で起きている。 SEO詐欺師はLLMを使ってブログスパムを大量生産し、広告収入の減少に対抗している。ロマンス詐欺師やeホーリングの運営者は音声クローンや画像生成を導入している。金儲けのためにAIで書かれた電子書籍を1冊20ドルで売る詐欺師もいる。 最も衝撃的な市場は、ヌード画像生成サービスだ。ある運営者は次のように広告した。「私はAIを使ってどんな女の子もヌードにできる… 1枚=1ドル、10枚=8ドル、50枚=40ドル、90枚=75ドル。」 これらは高度なサイバー犯罪ではない。これは、20年間スパム業界を支えた低マージン・高ボリュームのハッスルと同じもので、少しだけ良いツールを使っているだけだ。 研究者たちの締めくくりの観察は、最も鋭いものだ。AIがサイバー犯罪エコシステムを混乱させる最大の方法は、犯罪者の能力を高めることではなく、正当な技術者をレイオフさせて地下に追いやることかもしれないと示唆している。 「近月、これらのツールによる労働市場の混乱に対する不安が急激に高まっている」と論文は述べている。「これが、生成AIツールがサイバー犯罪エコシステムを混乱させる最も重要な方法になるかもしれない—大量解雇、経済の低迷、就職市場の冷え込みが、正当なスキルの高い開発者を詐欺やサイバー犯罪、金儲けの地下コミュニティに追いやることになる。」

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン