マスクの発言から逆算:Claude Opusのパラメータ数はおそらく5兆に達し、Grok 4.2の10倍になる

robot
概要作成中

Coin界ニュースによると、4月10日、イーロン・マスクが最近X(旧Twitter)上で行った返信がきっかけで、Anthropicのフラッグシップモデルのパラメータ規模に関する推測が外部で話題となった。ユーザーが「Grok 4.2」のパラメータ量について追及したのに対し、マスクは次のように確認した。「0.5兆の総パラメータ。現在のGrokはSonnetの半分で、Opusの十分の一だ。その規模に関して言えば、これは非常に強力なモデルだ。」マスクが述べた「Grok 4.2がOpusの十分の一」という内容を逆算すると、Claude Opusのパラメータ量は約5兆、Claude Sonnetは約1兆になる。なお、Anthropicはこれまで、自社のいかなるモデルについてもパラメータ規模を公開したことはない。上記の数字は、マスクの発言からの推算にすぎず、公式データではない。

一方でマスクは、SpaceX AI傘下のColossus 2スーパーコンピュータ・クラスターが、7つのモデルを同時に学習しており、最大規模は10万億パラメータに達していることも明らかにした。そして含みのある言葉で、次のように付け加えている。「追い上げるべきものもいくつかある。」もし推測が事実だとすれば、Claude Opusは5兆パラメータで、現在の既知の導入済みモデルのトップに位置することになる。さらに、xAIが同時に学習している10万億パラメータのモデルは、次の軍拡競争における重要な変数となるだろう。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン