Coin界ニュースによると、4月10日、イーロン・マスクが最近X(旧Twitter)上で行った返信がきっかけで、Anthropicのフラッグシップモデルのパラメータ規模に関する推測が外部で話題となった。ユーザーが「Grok 4.2」のパラメータ量について追及したのに対し、マスクは次のように確認した。「0.5兆の総パラメータ。現在のGrokはSonnetの半分で、Opusの十分の一だ。その規模に関して言えば、これは非常に強力なモデルだ。」マスクが述べた「Grok 4.2がOpusの十分の一」という内容を逆算すると、Claude Opusのパラメータ量は約5兆、Claude Sonnetは約1兆になる。なお、Anthropicはこれまで、自社のいかなるモデルについてもパラメータ規模を公開したことはない。上記の数字は、マスクの発言からの推算にすぎず、公式データではない。一方でマスクは、SpaceX AI傘下のColossus 2スーパーコンピュータ・クラスターが、7つのモデルを同時に学習しており、最大規模は10万億パラメータに達していることも明らかにした。そして含みのある言葉で、次のように付け加えている。「追い上げるべきものもいくつかある。」もし推測が事実だとすれば、Claude Opusは5兆パラメータで、現在の既知の導入済みモデルのトップに位置することになる。さらに、xAIが同時に学習している10万億パラメータのモデルは、次の軍拡競争における重要な変数となるだろう。
マスクの発言から逆算:Claude Opusのパラメータ数はおそらく5兆に達し、Grok 4.2の10倍になる
Coin界ニュースによると、4月10日、イーロン・マスクが最近X(旧Twitter)上で行った返信がきっかけで、Anthropicのフラッグシップモデルのパラメータ規模に関する推測が外部で話題となった。ユーザーが「Grok 4.2」のパラメータ量について追及したのに対し、マスクは次のように確認した。「0.5兆の総パラメータ。現在のGrokはSonnetの半分で、Opusの十分の一だ。その規模に関して言えば、これは非常に強力なモデルだ。」マスクが述べた「Grok 4.2がOpusの十分の一」という内容を逆算すると、Claude Opusのパラメータ量は約5兆、Claude Sonnetは約1兆になる。なお、Anthropicはこれまで、自社のいかなるモデルについてもパラメータ規模を公開したことはない。上記の数字は、マスクの発言からの推算にすぎず、公式データではない。
一方でマスクは、SpaceX AI傘下のColossus 2スーパーコンピュータ・クラスターが、7つのモデルを同時に学習しており、最大規模は10万億パラメータに達していることも明らかにした。そして含みのある言葉で、次のように付け加えている。「追い上げるべきものもいくつかある。」もし推測が事実だとすれば、Claude Opusは5兆パラメータで、現在の既知の導入済みモデルのトップに位置することになる。さらに、xAIが同時に学習している10万億パラメータのモデルは、次の軍拡競争における重要な変数となるだろう。