ホームページ >テクノロジー周辺機器 >AI >大型下位モデルへの対応

大型下位モデルへの対応

WBOY
WBOY転載
2024-01-23 21:03:08625ブラウズ

大型下位モデルへの対応

大規模モデルの低ランク適応は、大規模モデルの高次元構造を低次元構造で近似することで複雑さを軽減する方法です。目的は、良好なパフォーマンスを維持しながら、より小さく、より管理しやすいモデル表現を作成することです。多くのタスクでは、大規模モデルの高次元構造に冗長な情報や無関係な情報が存在する可能性があります。これらの冗長性を特定して削除することで、元のパフォーマンスを維持しながらより効率的なモデルを作成でき、トレーニングとデプロイに使用するリソースを削減できます。

低ランク適応は、メモリ消費量を削減しながら、大規模なモデルのトレーニングを高速化できる方法です。その原理は、事前トレーニングされたモデルの重みを凍結し、トレーニング可能なランク分解行列を Transformer アーキテクチャの各層に導入することで、下流タスクのトレーニング可能なパラメーターの数を大幅に削減することです。このメソッドは、元の行列を異なるランクの 2 つの行列の積に分解することによって実装されます。計算に低ランクの行列を使用するだけで、推論レイテンシを増加させることなく、モデル パラメーターの数を減らし、トレーニング速度を向上させ、モデルの品質の点で優れたパフォーマンスを得ることができます。

低ランク適応の例

GPT-3 モデルを例に挙げると、大規模モデルの低ランク適応 (LoRA) は、ランク分解を最適化することでニューラル ネットワークを間接的にトレーニングする方法です。高密度層のマトリックス、いくつかの高密度層手法。 LoRA の利点は、完全なパラメーターを使用してモデル全体をトレーニングするのではなく、一部のパラメーターのみを微調整する必要があるため、導入時の運用効率が向上することです。 GPT-3 モデルでは、LoRA は、完全なパラメーター微調整に匹敵するパフォーマンスを達成するために、非常に低ランクの分解行列を最適化するだけで済みます。この方法は、保存と計算の点で非常に効率的であるだけでなく、過剰適合の問題を効果的に軽減し、モデルの汎化能力を向上させることができます。 LoRA を通じて、大規模なモデルをさまざまなシナリオにより柔軟に適用できるようになり、ディープラーニングの開発にさらなる可能性をもたらします。

また、低ランク適応の考え方はシンプルです。これは、元の PLM (事前トレーニング済み言語モデル) の隣にバイパスを追加することによって実現されます。バイパスは、次元削減を実行してから次元操作を実行して、いわゆる固有次元をシミュレートします。トレーニング プロセス中、PLM のパラメーターは固定され、次元削減行列 A と次元強化行列 B のみがトレーニングされます。モデルの入力および出力の次元は変更されませんが、BA および PLM のパラメーターが出力に重ねられます。次元削減行列 A はランダム ガウス分布を使用して初期化されますが、次元強化行列 B は 0 行列を使用して初期化されます。これにより、トレーニングの開始時にバイパス行列がまだ 0 行列であることが保証されます。

このアイデアは、バイパス更新を使用して完全な微調整のプロセスをシミュレートする残留接続といくつかの類似点があります。実際、完全な微調整は LoRA の特殊なケース、つまり r が k に等しい場合とみなすことができます。これは、LoRA のランク r を事前トレーニングされた重み行列のランク k に設定しながら、すべての重み行列に LoRA を適用し、すべてのバイアス項をトレーニングすることで、完全な微調整の表現力をほぼ復元できることを意味します。つまり、学習可能なパラメータの数が増えると、LoRA の学習はオリジナルのモデルの学習になる傾向があり、アダプターベースの手法は MLP になりやすく、プレフィックスベースの手法は長時間を処理できないモデルになる傾向があります。入力シーケンス。したがって、LoRA は、トレーニング可能なパラメーターの数とモデルの表現力のバランスを取る柔軟な方法を提供します。

低ランク適応とニューラル ネットワーク圧縮の違いは何ですか?

低ランク適応とニューラル ネットワーク圧縮には、目標と方法にいくつかの違いがあります。

ニューラル ネットワーク圧縮の目標は、パフォーマンスを維持しながら、パラメーターとストレージ容量を削減し、計算コストとストレージ要件を削減することです。方法には、ネットワーク構造の変更、量子化と近似などが含まれます。

ニューラル ネットワークの圧縮は、近似法、量子化法、トリミング法という 3 つのカテゴリに分類できます。

近似法では、行列またはテンソル分解を使用して少数のパラメータを再構築し、ネットワーク ストレージのオーバーヘッドを削減します。

2) 量子化法の主な考え方は、ネットワーク パラメータの取り得る値を実数領域から有限数セットにマッピングすること、またはネットワーク パラメータをより少ないビットで表現することです。ネットワークストレージのオーバーヘッドを削減します。

3) クリッピング方法はネットワークの構造を直接変更します。クリッピング方法は、粒度に応じて階層クリッピング、ニューロンレベルのクリッピング、ニューラル接続レベルのクリッピングに分けることができます。

低ランク適応とは、モデル パラメーターの次元を削減することでモデルの複雑さを軽減することを指し、通常は行列分解などの手法を使用して実現されます。このアプローチは、モデルの予測機能を維持しながら、モデルの計算コストとストレージ要件を削減するためによく使用されます。

一般に、ニューラル ネットワーク圧縮は、ニューラル ネットワークのパラメーターと記憶領域を削減するためのさまざまな方法を含むより広い概念です。低ランク適応は、大規模なモデルを低次元の構造で近似することにより、その複雑さを軽減するように設計された特別な手法です。

以上が大型下位モデルへの対応の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は163.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。