ホームページ >テクノロジー周辺機器 >AI >reftは必要なすべてですか?

reftは必要なすべてですか?

王林
王林オリジナル
2025-02-25 19:49:12894ブラウズ

reft:微調整llms

への革新的なアプローチ スタンフォードの2024年5月の論文で導入された

reft(表現Finetuning)は、効率的に微調整する大規模な言語モデル(LLMS)の画期的な方法を提供します。 その可能性はすぐに明らかになり、Oxen.AIの2024年7月の実験でさらに強調されました。14分で単一のNVIDIA A10 GPUでLLAMA3(8B)を微調整しました。

モデルの重みや入力を変更するLORAなどの既存のパラメーター効率の高い微調整(PEFT)メソッドとは異なり、REFTは分散インターチェンジ介入(DII)メソッドを活用します。 DIIは、このサブスペースを微調整できるように、埋め込みをより低次元のサブスペースにプロジェクトします。 この記事は、最初に人気のあるPEFTアルゴリズム(LORA、プロンプトチューニング、プレフィックスチューニング)をレビューし、次にDIIを説明し、REFTとその実験結果を掘り下げてください。

パラメーター効率の高い微調整(PEFT)テクニック

Is ReFT All We Needed? huggingフェイスは、PEFTテクニックの包括的な概要を提供します。 重要な方法を簡単に要約してみましょう:

lora(低ランクの適応):

2021年に導入されたLoraのシンプルさと一般化により、LLMSと拡散モデルの微調整のための主要なテクニックになりました。 すべての層の重みを調整する代わりに、LORAは低ランクマトリックスを追加し、トレーニング可能なパラメーター(多くの場合0.3%未満)を大幅に削減し、トレーニングを加速し、GPUメモリの使用量を最小化します。

プロンプトチューニング:

このメソッドは、「ソフトプロンプト」(解放可能なタスク固有の埋め込み)を使用し、各タスクのモデルを複製せずに効率的なマルチタスク予測を可能にします。 Is ReFT All We Needed?

プレフィックスチューニング(p調整V2):

迅速なチューニングの制限のアドレス指定、プレフィックスチューニングは、さまざまなレベルでトレーニング可能なプロンプトの埋め込みを追加し、さまざまなレベルでタスク固有の学習を可能にします。

Is ReFT All We Needed?

loraの堅牢性と効率により、LLMSで最も広く使用されているPEFTメソッドになります。 詳細な経験的比較は、この論文分散インターチェンジ介入(DII)

diiは、因果抽象化に根ざしています。これは、高レベル(因果的)モデルと低レベル(ニューラルネットワーク)モデルの間の介入を使用してアライメントを評価するフレームワークです。 DIIは、両方のモデルを直交投影を介してサブスペースにモデルを投影し、回転操作を通じて介入されたモデルを作成します。 詳細な視覚的な例が利用可能です

ここIs ReFT All We Needed?

DIIプロセスは、数学的に次のように表現できます

Is ReFT All We Needed?

ここで、

は直交投影を表し、分散アライメント検索(DAS)がサブスペースを最適化して、介入後に予想される反事実出力の確率を最大化します。 Rreft - 表現Finetuning

reftは、より低次元空間内のモデルの隠された表現に介入します。 以下の図は、レイヤーLと位置p:

に適用された介入(PHI)を示しています。

Is ReFT All We Needed?loreft(低ランク線形サブスペースreft)は、学習された投影ソースを紹介します:

Is ReFT All We Needed?ここで、

は隠された表現であり、

heditsRshR

に及びます。ニューラルネットワークレイヤーへのLoreftの統合を以下に示します:

Is ReFT All We Needed?

LLM微調整中、LLMパラメーターは凍結されたままで、投影パラメータ(phi={R, W, b})のみが訓練されています。

実験結果

元のREFTペーパーでは、さまざまなベンチマークにわたる完全な微調整(FT)、LORA、およびプレフィックスチューニングとの比較実験を提示します。 REFTテクニックは既存の方法を一貫して上回り、優れたパフォーマンスを達成しながらパラメーターを少なくとも90%削減します。

Is ReFT All We Needed?ディスカッション

Reftの魅力は、多様なベンチマーク全体にわたるLlama-Familyモデルでの優れたパフォーマンスと、モデルの解釈可能性を支援する因果抽象化の基礎に起因します。 REFTは、ニューロンに分布した線形サブスペースが多数のタスクを効果的に制御し、LLMSへの貴重な洞察を提供できることを示しています。

参照

以上がreftは必要なすべてですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。