Karpathy 4/30 Sequoia Ascent で今年最も役立つAIの解説を3つの論点に圧縮。読み終えたらAIの見方が変わる。


1. AIは単なる「より速い」ものではなく、新しいパラダイム
過去2年間、皆AIは物事を速くするものだと語ってきた。
Karpathyはこれを誤解だと述べる。
AIがタスクを再定義する例を3つ挙げる:
- menugen:画像の入力と出力だけで、従来のコードなし、アプリ全体がLLMに飲み込まれる
- .mdスキル:ソフトウェアをインストールする際に.shスクリプトを書かず、中文/英語の説明を書き、LLMに環境理解させてインストールさせる
- LLM知識ベース:従来のコードでは不可能なこと——任意のフォーマットの非構造化テキストを計算可能な知識に変換
第一のタイプは「コードを減らす」、第二は「英語をコードのように使う」、
第三は「従来のコードではできないこと」。
2. Jagged Edge — なぜAIは万能でありながら愚かであるのか
最も核心的な論点。
なぜ同じAIが10万行のコードをリファクタリングできる一方で、
洗車に行くことを提案するのか?それはモデルの誤動作ではない。
Karpathyの言葉:
「あなたはRL回路のレール上を飛んでいるか、
それともジャングルでマチェーテを振るっているかだ。」
RLで訓練された円の中を飛ぶか、
ジャングルで斧を振るうかの違い。
どのタスクが訓練分布に入るかを決める2つの要素:
verifiability(結果の検証性)+ economics(価値の有無、frontier labsがRLに投資するか)
数学のコンテスト / プログラミング / 定理証明:
高い検証性 + 高いTAM → 円の中に入り、使うときは飛ぶ
日常の提案 / マイナーな言語・文学 / ロングテールタスク:
低TAM →RLに入らず →ジャングルで斧を振るう
これはAIがどんどん強くなるという線形の話ではない。
むしろ、境界が不均一であり、自分がどちら側にいるかを知る必要がある。
3. Agent-native economy
最後の論点:未来のソフトウェアは次のように分解される
sensor(入力)+ actuator(実行)+ logic(推論)
logic層はすべてLLM上で動作し、
sensor / actuatorは従来のコードで補助的に動作。
意味:情報をLLMが最も理解しやすい形に整えることが、
今後のソフトウェア設計の核心制約となる。
---
この3つの論点は一つの一貫した枠組み:
新しいパラダイムは、AIができることを見せてくれる前に気づかせ、
Jagged Edgeは、AIができないことがどこにあるかを識別させ、
Agent-nativeは、残りのことをどうAIに包むかを示す。
「AIがますます強くなる」ではなく、
「どのタスクが円の中にあり、どのタスクがジャングルにあるか」だ。
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン