### HeadlineAnthropic の研究者が [un]prompted 2026 デモで:LLM が 500 のゼロデイ脆弱性を一挙に発見### Summaryロハン・ポールは、[un]prompted 2026 でのニコラス・カーニの講演ビデオを共有しました。タイトルは「ブラックハット LLMs」です。カーニは Anthropic の AI セキュリティ研究者で、攻撃者が大規模言語モデルを使用してソフトウェア脆弱性を特定し、悪用する方法をデモしました。核心数字:500 のゼロデイ脆弱性が自動化されて生成されました。さらに注目すべき点は、LLM の脆弱性研究能力が高まるにつれて、脅威モデルが移行していることです - 「AI モデルを攻撃する方法」から「AI が他のシステムを攻撃し始めるとどうなるか」へ。### Analysis**これは紙上の推論ではなく、再現可能な実証です。** カーニは LLM が従来のファジングテストや静的分析が見逃した実際の欠陥を発見したことを記録しました。これには認証バイパスのような問題が含まれます。彼はブログで効率性を繰り返し強調しています:- LLM は必ずしも全く新しい攻撃タイプを創出するわけではありませんが、**既存の攻撃コストとハードルを大幅に低下させる**- 典型的な利点には:大規模フィッシング生成、自動化されたターゲット偵察、スクリプト化されたエクスプロイトチェーンの連結が含まれます- これらは元々資金や専門知識を必要とするステップであり、**モデルによって「一般化」されて並行して拡張可能になった**コミュニティの反応(会議の議論や Hacker News のスレッド)は、業界がこの変化を真剣に受け止めていることを示しています。合理的な逆の見解があります:**AI 支援の脆弱性発掘は守備側にとって有利かもしれません**、企業はこれを CI/CD や資産ベースラインに体系化して展開し、広範囲をカバーし、早期に欠陥を発見できます。しかしカーニは結果がまだ不確定であることを明言しています - **防御と攻撃のどちらがより利益を得るか、現時点では誰も結論を出せません**。> 不安な問題は時間の次元です:もし今後 6-12 ヶ月で能力がさらに向上したら、何が起こるのでしょうか?カーニの研究は、私たちが「天井」からまだ距離があることを示しています。#### 攻防影響速覧| 次元 | 攻撃者の得るもの | 防御側の得るもの ||---|---|---|| コストと速度 | コスト削減とスピードアップ、大量フィッシング/偵察/エクスプロイト | コードと設定の全面スキャン、早期の欠陥発見 || カバレッジ | ロングテールのターゲットとニッチな技術スタックが攻撃面に含まれる | より高頻度で全域資産とサプライチェーンをカバー || 専門的ハードル | スキル要件の低下、スクリプトキッドの能力上限が引き上げられる | プラットフォーム化の実施、インフラとプロセスの利点を組み合わせ || 不確実性 | 効果はデータ/整合/防護の干渉を受ける | 誤報、コンプライアンス、人間と機械の協調コストを解決する必要がある |**結論**:- **LLM は「既知の実行可能な攻撃」をスケール化およびプロセス化しており、新しいパラダイムを無から創出しているわけではありません**- **短期的には攻防の競争は、誰がより早くモデルを生産ラインに統合できるか(データ、計算能力、評価とフィードバックの閉ループ能力)にかかっています**### Impact Assessment- **重要性**: 高- **範疇**: AI セーフティ、AI 研究、技術的洞察**判断:** 私たちは「早期だが加速している」転換点にいます。最も有利なのは、エンジニアリングとプロセス化の能力を持つ防御型チーム、安全企業、大企業、そして資金とリソースを使ってツールチェーンを孵化できるファンドです。レッドチームで活動する個人は利益を得るでしょうが、体系的に実施する人々が最初により大きなリターンを得るでしょう。
Anthropic 研究員デモ:LLMを用いて一括で500個のゼロデイ脆弱性を発掘
Headline
Anthropic の研究者が [un]prompted 2026 デモで:LLM が 500 のゼロデイ脆弱性を一挙に発見
Summary
ロハン・ポールは、[un]prompted 2026 でのニコラス・カーニの講演ビデオを共有しました。タイトルは「ブラックハット LLMs」です。カーニは Anthropic の AI セキュリティ研究者で、攻撃者が大規模言語モデルを使用してソフトウェア脆弱性を特定し、悪用する方法をデモしました。核心数字:500 のゼロデイ脆弱性が自動化されて生成されました。さらに注目すべき点は、LLM の脆弱性研究能力が高まるにつれて、脅威モデルが移行していることです - 「AI モデルを攻撃する方法」から「AI が他のシステムを攻撃し始めるとどうなるか」へ。
Analysis
これは紙上の推論ではなく、再現可能な実証です。 カーニは LLM が従来のファジングテストや静的分析が見逃した実際の欠陥を発見したことを記録しました。これには認証バイパスのような問題が含まれます。彼はブログで効率性を繰り返し強調しています:
コミュニティの反応(会議の議論や Hacker News のスレッド)は、業界がこの変化を真剣に受け止めていることを示しています。合理的な逆の見解があります:AI 支援の脆弱性発掘は守備側にとって有利かもしれません、企業はこれを CI/CD や資産ベースラインに体系化して展開し、広範囲をカバーし、早期に欠陥を発見できます。しかしカーニは結果がまだ不確定であることを明言しています - 防御と攻撃のどちらがより利益を得るか、現時点では誰も結論を出せません。
攻防影響速覧
結論:
Impact Assessment
判断: 私たちは「早期だが加速している」転換点にいます。最も有利なのは、エンジニアリングとプロセス化の能力を持つ防御型チーム、安全企業、大企業、そして資金とリソースを使ってツールチェーンを孵化できるファンドです。レッドチームで活動する個人は利益を得るでしょうが、体系的に実施する人々が最初により大きなリターンを得るでしょう。