ホームページ > 記事 > テクノロジー周辺機器 > 大規模モデルを使用してテキスト要約トレーニングの新しいパラダイムを作成する
この記事の主な内容は、対照学習と大規模モデルを使用した最新のトレーニング パラダイムに焦点を当てた、生成的なテキスト要約手法に関する説明です。これには主に 2 つの記事が含まれており、1 つは対照学習を使用して生成モデルにランキング タスクを導入する BRIO: Bringing Order to Abstractive Summarization (2022)、もう 1 つは Based の On Learning to Summarize with Large Language Models as References (2023) BRIO では、高品質のトレーニング データを生成するために大規模なモデルがさらに導入されています。
生成テキスト要約のトレーニングでは、一般に最大類似度推定が使用されます。まず、Encoder を使用して文書をエンコードし、次に Decoder を使用して要約内の各テキストを再帰的に予測します。適合ターゲットは人工的に構築された要約標準回答です。標準の回答に最も近い各位置にテキストを生成するという目標は、最適化関数によって表されます。
#このアプローチの問題は、次のとおりです。 , トレーニングと下流の実際のタスクが一致していません。 1 つのドキュメントに対して複数の概要を生成できますが、それらの品質は良い場合もあれば悪い場合もあります。 MLE では、フィッティングのターゲットが唯一の標準的な答えである必要があります。このギャップにより、テキスト要約モデルが、品質の異なる 2 つの要約の長所と短所を効果的に比較することが困難になります。たとえば、BRIO の論文で実験が行われましたが、一般的なテキスト要約モデルでは、品質の異なる 2 つの要約の相対的な順序を判断する場合、非常に悪い結果が得られます。
#3. 生成モデルにはランキング コントラスト学習が導入されています従来の生成テキスト要約モデルに存在する問題を解決するために、 BRIO: Bringing Order to Abstractive Summarization (2022) では、生成モデルに対照的な学習タスクをさらに導入して、さまざまな品質の要約を分類するモデルの能力を向上させることを提案しています。 BRIO はマルチタスク トレーニングを使用します。最初のタスクでは、従来の生成モデルと同じ方法、つまり MLE を介して標準的な回答を当てはめます。 2 番目のタスクは対照的な学習タスクで、事前トレーニングされたテキスト要約モデルがビーム検索を使用して 2 つの異なる結果を生成し、ROUGE を使用して、生成された 2 つの結果と標準の回答のどちらが優れているかを評価し、どちらが優れているかを判断します。 2 要約の並べ替え。 2 つの要約結果は Decoder に入力され、2 つの要約の確率が取得され、学習損失の比較を通じて、モデルは高品質の要約に高いスコアを与えることができます。この部分の比較学習損失の計算方法は次のとおりです。 # 4. 大規模モデル テキスト要約の最適化GPT などの大規模モデルを使用して生成された要約の品質は、人間が生成した要約よりもさらに優れていることがわかっているため、このような大規模モデルの人気が高まっています。この場合、人工的に生成された標準回答を使用すると、モデルの有効性の上限が制限されます。したがって、「大規模な言語モデルを参照として要約する学習について」(2023) では、GPT などの大規模モデルを使用して、要約モデルの学習をガイドするトレーニング データを生成することを提案しています。 この記事では、大規模なモデルを使用してトレーニング サンプルを生成する 3 つの方法を提案します。 1 つ目は、大規模モデルによって生成された概要を直接使用して、手動で生成された概要を置き換えることです。これは、大規模モデルの概要生成機能を下流モデルに直接適合させることと同じです。トレーニング方法はまだ変わりません。 MLE。 2 番目の方法は GPTScore です。主に事前トレーニングされた大規模モデルを使用して生成された概要をスコアリングし、このスコアを概要の品質を評価するための基礎として使用し、BRIO と同様の方法を使用します。比較学習トレーニング。 GPTScore は、Gptscore: Evaluate as you wish (2023) で提案された、大規模なモデルに基づいて生成されたテキストの品質を評価する手法です。 3 番目のメソッドは GPTRank です。このメソッドを使用すると、大規模なモデルが直接スコアリングする代わりに各概要を並べ替えることができ、大規模なモデルに概要を並べ替えることができます。 . より合理的なソート結果を得るためのロジックの説明。概要生成における大規模モデルの能力がますます認識されてきているため、手動のアノテーション結果を置き換えるために、概要モデル フィッティング ターゲットのジェネレーターとして大規模モデルを使用することが将来のトレンドになるでしょう。傾向。同時に、ランキング比較学習を使用して要約生成をトレーニングすると、要約モデルは要約の品質を認識し、元のポイント フィッティングを超えることができます。これは、要約モデルの効果を向上させるためにも重要です。
以上が大規模モデルを使用してテキスト要約トレーニングの新しいパラダイムを作成するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。