自己反射的検索の高等世代(自己rag):適応的検索と自己批判でLLMを強化する
大規模な言語モデル(LLM)は変革的ですが、パラメトリック知識への依存はしばしば事実上の不正確さにつながります。 検索された生成(RAG)は、外部の知識を組み込むことでこれに対処することを目指していますが、従来のRAGメソッドは制限に悩まされています。 この記事では、LLMの品質と事実を大幅に向上させる新しいアプローチである自己狂気を調査します。
標準的なragの欠点に対処します
標準のRAGは、関連性に関係なく、固定数のパッセージを取得します。これにより、いくつかの問題が発生します:
- 無関係な情報:不要なドキュメントの検索は、出力品質を希釈します。
順応性の欠如:- タスク要求に基づいて検索を調整できないと、一貫性のないパフォーマンスが発生します。
一貫性のない出力:
生成されたテキストは、知識統合に関する明示的なトレーニングがないため、取得した情報と一致しない場合があります。
-
自己評価の欠如:回収された通路または生成された出力の品質または関連性を評価するためのメカニズムはありません。
- 限られたソースの帰属:生成されたテキストのソースサポートの引用が不十分です。
- 自己狂気の導入:適応型検索と自己反省
自己ぼろきれは、適応的な検索と自己反省を統合することによりLLMSを強化します。標準のRAGとは異なり、「トークンを取得」を使用して、必要な場合にのみパッセージを動的に取得します。 重要なのは、独自の生成プロセスを評価するために、特別な反射トークン(IsREL(関連性)、ISSUP(サポート)、およびISUSE(ユーティリティ))を採用しています。
自己狂気の重要な機能は次のとおりです
オンデマンド検索:
必要な場合にのみ効率的な検索。
リフレクショントークン:
ISREL、ISSUP、およびISUSEトークンを使用した自己評価
- 自己批評:回収された通過の関連性と出力品質の評価。
- エンドツーエンドのトレーニング:出力生成と反射トークン予測の同時トレーニング。>
- カスタマイズ可能なデコード:検索頻度とさまざまなタスクへの適応の柔軟な調整。
- セルフラグワークフロー
-
入力処理と取得決定:モデルは、外部知識が必要かどうかを判断します。
- 関連するパッセージの取得:必要に応じて、関連するパッセージはレトリーバーモデル(例:Contriever-MS Marco)を使用して取得されます。
並列処理とセグメントの生成:- ジェネレーターモデルは、それぞれの検索された通路を処理し、関連する批評トークンを持つ複数の継続候補を作成します。
自己批評と評価:
リフレクショントークンは、各生成されたセグメントの関連性(ISREL)、サポート(ISSUP)、およびユーティリティ(ISUSE)を評価します。
-
最適なセグメントと出力の選択:セグメントレベルのビーム検索は、批評トークンの確率を組み込んだ加重スコアに基づいて最適な出力シーケンスを選択します。
- トレーニングプロセス:2段階のトレーニングプロセスには、批評家モデルをオフラインでトレーニングしてリフレクショントークンを生成することが含まれ、その後、これらのトークンで補強されたデータを使用してジェネレーターモデルをトレーニングします。
-
self-ragの利点自己狂気はいくつかの重要な利点を提供します:
事実上の正確性の改善:オンデマンドの検索と自己批判は、事実上の正確さを高めることにつながります。
強化された関連性:適応的検索により、関連情報のみが使用されることが保証されます。
より良い引用と検証可能性:- 詳細な引用と評価により、透明性と信頼性が向上します。
カスタマイズ可能な動作:
反射トークンでは、タスク固有の調整を可能にします。-
効率的な推論:
オフライン批評家モデルトレーニングは、推論のオーバーヘッドを減らします
-
LangchainとLanggraph を使用した
- 実装
この記事では、LangchainとLanggraphを使用した実用的な実装を詳しく説明し、依存関係のセットアップ、データモデル定義、ドキュメント処理、評価者の構成、RAGチェーン設定、ワークフロー機能、ワークフロー構築、テストをカバーしています。 コードは、さまざまなクエリを処理し、その応答の関連性と正確性を評価できる自己ぼろきシステムを構築する方法を示しています。
self-ragの制限-
その利点にもかかわらず、自己ragには制限があります:
-
完全にサポートされていない出力:出力は、引用された証拠によって常に完全にサポートされるとは限りません。
- 事実上の誤りの可能性:改善されている間、事実上の誤りは引き続き発生する可能性があります。
モデルサイズのトレードオフ:- より小さなモデルは、実際には正確に大きいモデルを上回ることがあります。
カスタマイズのトレードオフ:
反射トークンの重みの調整は、出力の他の側面に影響を与える可能性があります(たとえば、流ency)。
-
結論
自己狂気は、LLMテクノロジーの大幅な進歩を表しています。適応的検索と自己反省を組み合わせることにより、標準のRAGの重要な制限に対処し、より正確で関連性があり、検証可能な出力をもたらします。 フレームワークのカスタマイズ可能な性質により、動作を多様なアプリケーションに合わせて調整することができ、事実上の正確さを必要とするさまざまなタスクの強力なツールになります。 提供されたLangchainとLanggraphの実装は、自己速度システムを構築および展開するための実用的なガイドを提供します。
よくある質問(FAQS)
(元のテキストのFAQセクションはここに保持されています。)
Q1。セルフラグとは?A.自己rag(自己反射的検索の高等生成)は、オンデマンド検索と自己反省を組み合わせて事実上の正確性と関連性を高めることにより、LLMのパフォーマンスを改善するフレームワークです。
q2。標準のRAGとの自己狂気はどのように異なりますか?A。標準のRAGとは異なり、自己ragは必要な場合にのみパッセージを取得し、反射トークンを使用して出力を批判し、タスク要件に基づいて動作を適応させます。
q3。反射トークンとは?A.反射トークン(ISREL、ISSUP、ISUSE)の検索関連、生成されたテキストのサポート、および全体的な有用性を評価し、自己評価とより良い出力を可能にします。
Q4。自己ぼろきれの主な利点は何ですか? A.自己狂気は精度を向上させ、事実上のエラーを減らし、より良い引用を提供し、推論中にタスク固有のカスタマイズを可能にします。
Q5。自己負担は事実上の不正確さを完全に排除することができますか?A。いいえ、自己負担は不正確さを大幅に減らしますが、LLMのような事実上の誤りを時折する傾向があります。
(注:画像は元の形式と場所のままです。)
以上が自己ぼろきれ:いつ再確認するかを知っているAIの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。