Anthropicの流出したサイバーセキュリティAIにブレーキをかける

AnthropicのAIモデルが流出したというニュースはサイバーセキュリティ業界を揺るがし、大手企業の株は急落した。最初はゲームチェンジャーになり得るように見えたが、今や緊急の疑問が浮上している。組織は自社の最も機密性の高いデジタル資産をAIに任せても信頼できるのか、それともこの事件は単に専門家による保護の必要性を改めて裏付けるだけなのか?

Mintによると、流出した下書きのブログ投稿は、Capybaraと呼ばれる新しいティアのAIモデルを導入したと伝えている。その下書きでは、CapybaraがAnthropicの旗艦モデルであるClaude Opus 4.6を「ソフトウェアのコーディング、学術的な推論、そしてサイバーセキュリティ関連のタスク」で上回ったと主張していた。さらに、Claude Mythos――Anthropicが「彼らの最も先進的なモデル」と説明するモデル――でのトレーニングが完了したとも記されていた。

なぜ流出したのか?

Anthropicは流出の原因を「人的ミス」としているが、その説明は、同社が機密データを守る能力について組織側を安心させるにはほとんど役立たないかもしれない。一部のアナリストは、他にも何らかの動機があった可能性を推測している。

「Capybaraの流出は不幸なことだが、私としては、進化し続けるAIプラットフォームが継続的に、そして今後も突きつけてくる新たなサイバーリスクの一部を浮き彫りにするために、アクセス可能なデータレイクに意図的に置かれたのではないかとさえ思う」と、Javelin Strategy & Researchのサイバーセキュリティ部門ディレクターであるTracy Goldbergは述べた。「とはいえ、そのモデルはまだテスト中であり、Anthropicはバグや対処が必要なリスクを認識していることを明確に述べている。だからこそAnthropicはCapybaraをソフトローンチにとどめている。」

AIがもたらす差し迫った脅威

Anthropicはまた、これらのモデルに関連するサイバーセキュリティ上のリスクも強調し、防衛側とサイバー犯罪者の間でAIをめぐる「軍拡競争」が激化していることを指摘した。同社は、Capybaraが、セキュリティチームが対応できるよりはるかに速い速度で脆弱性を特定し悪用できる一連のモデルの最初になる可能性があると警告した。言い換えれば、犯罪者はこのモデルを活用して、AI駆動型のサイバーセキュリティ脅威の新たな世代を後押しできる可能性がある。

投資家はすばやく反応し、取引開始直後にCrowdStrike、Datadog、Zscalerの株が10%以上下落した。

「Capybara流出に関するニュースを受けてテック株が急落したことは、投資家がAI全体について十分に理解できていないことを本当に浮き彫りにしているだけです」とGoldbergは語った。「これらのモデルは今後も適応し続け、業界のセキュリティ対策が対応できるよりも速いペースでそうなることは分かっています。だからこそ、AIをめぐるガバナンスが極めて重要なのです。」

0

                    シェア

0

                視聴
            

            

            

                Facebookで共有Twitterで共有LinkedInで共有

タグ: AIAnthropicCrowdStrikeCybersecurityMint

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン