一篇論文により立ち止まり、半時間見入った S0 Tuning


核心アイデア:モデルの重みを変更せず、初期状態の行列だけを調整することで、モデルのコーディング能力を大幅に向上させることができる。
Qwen3.5-4B で、わずか48個のHumanEval訓練サンプル(48Kではなく48個)を使用し、S0 tuningはpass@1を23.6ポイント向上させた。
LoRAと比較して、S0は10.8ポイント高い。p値<0.001、統計的に有意。
FalconH1-7Bでは、S0は71.8%に達した。
これは、調整後もモデルの速度やサイズは変わらず、「スタート位置」が改善されることを意味する。
ローカルモデルのデプロイを行う人にとって、これは扉を開くものだ:汎用モデルを使い、数十の分野サンプルで調整して専用モデルに変えることができ、性能の犠牲を伴わない。
論文はarxiv: 2604.01168に掲載されている。モデル適応に関わる人は読むべきだ。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$2.22K保有者数:1
    0.00%
  • 時価総額:$2.23K保有者数:1
    0.00%
  • 時価総額:$2.23K保有者数:0
    0.00%
  • 時価総額:$2.24K保有者数:2
    0.24%
  • 時価総額:$2.23K保有者数:2
    0.00%
  • ピン