広場
最新
注目
ニュース
プロフィール
ポスト
CoinNetwork
2026-05-10 04:31:21
フォロー
币界网消息,Sakana AIとNVIDIAが協力して、twellと呼ばれる疎なデータフォーマットとそれに対応する高速化コアをオープンソース化しました。これにより、GPUが大規模モデルを実行する際に、「結果がほぼゼロ」に近い無効な計算をスキップできるようになりました。この方案は、モデルの精度を損なうことなく、H100の推論速度を最大30%向上させ、トレーニングの速度を最大24%向上させ、ピークメモリ使用量を大幅に節約します。データはまた、ある規則性を明らかにしています:モデルのパラメータ数が大きくなるほど、休眠しているニューロンの数も増える(20億パラメータのモデルの非ゼロ割合は、5億パラメータのモデルよりも38%低い)。これは、将来的により大規模なモデルを追求する際に、このハードウェア最適化がより顕著な性能向上をもたらすことを意味します。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
GateSquareMayTradingShare
1.04M 人気度
#
BTCBackAbove80K
59.45M 人気度
#
IsraelStrikesIranBTCPlunges
45.63K 人気度
#
JapanTokenizesGovernmentBonds
1.9M 人気度
#
#DailyPolymarketHotspot
870.59K 人気度
ピン
サイトマップ
币界网消息,Sakana AIとNVIDIAが協力して、twellと呼ばれる疎なデータフォーマットとそれに対応する高速化コアをオープンソース化しました。これにより、GPUが大規模モデルを実行する際に、「結果がほぼゼロ」に近い無効な計算をスキップできるようになりました。この方案は、モデルの精度を損なうことなく、H100の推論速度を最大30%向上させ、トレーニングの速度を最大24%向上させ、ピークメモリ使用量を大幅に節約します。データはまた、ある規則性を明らかにしています:モデルのパラメータ数が大きくなるほど、休眠しているニューロンの数も増える(20億パラメータのモデルの非ゼロ割合は、5億パラメータのモデルよりも38%低い)。これは、将来的により大規模なモデルを追求する際に、このハードウェア最適化がより顕著な性能向上をもたらすことを意味します。