Nous Research发布Lighthouse Attention,长序列预训练提速1.4-1.7倍

AIMPACT 消息,5 月 17 日(UTC+8),Nous Research推出Lighthouse Attention方法,通过选择式层级注意力机制解决长序列预训练中注意力计算成本二次方增长的问题。该方法对Query、Key、Value进行对称池化,选择逻辑置于注意力内核外可复用FlashAttention内核,采用两阶段训练策略。实测在NVIDIA B200上,512K上下文长度下前向传播提速21倍,前向+反向联合提速17.3倍,第一阶段吞吐量达12.6万tokens/s/GPU(vs 密集SDPA的4.6万),端到端加速达1.40×至1.69×,同时保持匹配或更低的训练loss。在530M参数Llama-3风格模型上验证,三组Lighthouse运行最终loss(0.698-0.71)优于从头训练的密集SDPA基准(0.7237),节省22.5-27小时训练时间。论文arXiv:2605.06554。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论