研究:生成式 AI はまだハッカーの能力を著しく向上させておらず、主にスパムコンテンツや詐欺に利用されている

深潮 TechFlow のニュースによると、5 月 06 日、ケンブリッジ大学、エディンバラ大学、ストラスクライド大学の研究者が発表した論文は、生成型 AI がハッカーを「スーパー ハッカー」に変えるわけではないことを示しています。研究チームは、2022 年 11 月にリリースされた ChatGPT に関する97,895 件のネット犯罪フォーラムの投稿を分析し、3,200 件以上を手作業で読んだ結果、サンプルの97.3%が「その他」に分類され、実際の AI を利用した犯罪についての議論ではなかったことを発見しました。わずか1.9%が「vibe coding」などのツールの使用に関するものでした。

研究は、WormGPT、FraudGPT などのいわゆる「Dark AI」ツールは、市場の誇張に過ぎず、実際に悪意のあるソフトウェアの生成能力は限定的であり、多くの投稿は無料アクセスの追求、ツールの無効さに関する推測や不満に主に関係していると指摘しています。研究は、AI の犯罪における観測可能な応用は、主に大量の SEO スパムコンテンツ、ロマンス詐欺、音声クローン、画像生成、低コストの AI 裸写真生成サービスなどの低ハードルで高頻度の活動に集中していると考えています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン