Mollickとは:ウォートン・スクールの准教授で、Generative AI Labsを担当。2024年にベストセラー『Co-Intelligence』を出しており、彼のSubstackのコラム「One Useful Thing」には41.9万以上の購読者がいます。TIMEは彼を2024年に影響力のあるAI人物の一人として挙げています。業界のインセンティブ構造の分析が、真剣に受け止めるに足るだけの重みを持っています。
他の場所でも同様の懸念があります:
AI Policy Bulletin(2025-2026)は、「AGI訓練の秘匿化」による警告をしていました。規制を回避する、あるいは出遅れを防ぐために、研究室は対外的な開示を抑え込む可能性があり、問題が起きたときに公共の監視が働かない。
Mollickの判断:AGIを手に入れた後、トップクラスの研究所はまず隠れて金融アービトラージを行う可能性が高い
タイトル
Ethan Mollick:もしすでにAGIを持っているなら、なぜ他人に知らせるのか?
概要
ウォートン・スクールの教授Ethan MollickがX上で述べた、少し気になる見解があります。ある研究室が人間を超えるAGIを作り出した場合、最も速くて確実な稼ぎ方はAPIを公開してみんなに使わせることではなく、その知能を先に金融市場で取引に投入することだというのです。競合相手がまだ反応する前に、超過収益を先に回収してしまう。
この論理をさらに進めると、本当の技術ブレークスルーは、最初から宣言されるよりも、隠される可能性のほうが高い。
これは、主流のAIガバナンス議論の前提と衝突しています。多くの人が「重要なタイミングが来れば私たちはそれを知る」と前提にしています。しかしMollickの言い分によれば、私たちはそもそも気づかないかもしれない。
分析
2つの道の選び方:公開API vs. こっそり取引
結論:目標が「最短時間で最も確実に稼ぐ」ことなら、隠してまず金融市場で裁定する動機のほうが強い。
これがガバナンスに意味すること
影響評価
判断: 一般のトレーダーにとって、このニュースはすでに遅れているかもしれません。真に恩恵を受けるのは、最初にシステムを手に入れた研究室と、プライベートデータおよび戦略能力を持つ自営の機関やヘッジファンドです。規制当局やインフラ構築者にとっても、できるだけ早く「強制監査+行動監視」のツールチェーンを整えられれば、まだチャンスはあります。総じて、優位性は「手元に知能があり、閉じた実行もできるプレイヤー」に明確に傾いています。