広場
最新
注目
ニュース
プロフィール
ポスト
TangHuaBanzhu
2026-05-17 03:37:28
フォロー
NousオープンソースのLighthouse Attention:単一B200で512Kを処理し17倍の高速化
Nous Researchは長いコンテキストの事前学習メカニズムであるLighthouse Attentionをオープンソース化しました。単一のB200 GPUで512Kの長さのテキストを処理する際、この方式の計算速度は従来のメカニズムより約17倍高速であり、98Kの長さではエンドツーエンドのトレーニング速度を1.4倍から1.7倍向上させました。
従来のアテンションメカニズムはすべての単語間の関係を計算する必要があり、テキストが長くなるほど計算コストは二乗に比例して増加します。Lighthouse Attentionは先に粗くスクリーニングし、その後詳細に計算するアプローチを採用しています。まず異なる層でテキストの圧縮された要約を高速に閲覧し、スコア付けによって重要な部分を抽出して短いテキストにまとめ、その後既存の高効率演算子であるFlashAttentionに直接渡して処理します。フィルタリングのロジックはコア外に完全に切り離されているため、開発者は低レベルのコードを書く手間を省き、追加のトレーニング目標も必要ありません。
$AI
{spot}(AIUSDT)
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
GateSquareMayTradingShare
1.92M 人気度
#
CLARITYActPassesSenateCommittee
3.57M 人気度
#
IsraelStrikesIranBTCPlunges
47.27K 人気度
#
#DailyPolymarketHotspot
971.91K 人気度
#
BitcoinVShapedReversalBack
227.15M 人気度
ピン留め
サイトマップ
NousオープンソースのLighthouse Attention:単一B200で512Kを処理し17倍の高速化
Nous Researchは長いコンテキストの事前学習メカニズムであるLighthouse Attentionをオープンソース化しました。単一のB200 GPUで512Kの長さのテキストを処理する際、この方式の計算速度は従来のメカニズムより約17倍高速であり、98Kの長さではエンドツーエンドのトレーニング速度を1.4倍から1.7倍向上させました。
従来のアテンションメカニズムはすべての単語間の関係を計算する必要があり、テキストが長くなるほど計算コストは二乗に比例して増加します。Lighthouse Attentionは先に粗くスクリーニングし、その後詳細に計算するアプローチを採用しています。まず異なる層でテキストの圧縮された要約を高速に閲覧し、スコア付けによって重要な部分を抽出して短いテキストにまとめ、その後既存の高効率演算子であるFlashAttentionに直接渡して処理します。フィルタリングのロジックはコア外に完全に切り離されているため、開発者は低レベルのコードを書く手間を省き、追加のトレーニング目標も必要ありません。
$AI
{spot}(AIUSDT)