ホームページ >テクノロジー周辺機器 >AI >検索された生成が依然として長いコンテキスト言語モデルの時代に関連する理由
ますます強力な大手言語モデル(LLMS)のコンテキストで、検索された生成(RAG)の進化を調査しましょう。 LLMSの進歩がRagの
ChatGptの2022年11月の発売により、クエリに答えるためのLLMSの可能性が明らかになりましたが、強調表示された制限:
llmsトレーニングデータを超えて情報へのアクセスがありません。
のみ
このアプローチは、幻覚を大幅に減らし、最新のデータへのアクセスを可能にし、ビジネス固有のデータの使用を促進しました。
初期の課題は、限られたコンテキストウィンドウサイズを中心としています。 ChatGPT-3.5の4Kトークン制限(約3000の英語の単語)は、コンテキストと回答の長さの量を制限しました。 過度に長いコンテキスト(回答の長さの制限)または不十分なコンテキスト(重要な情報の省略を危険にさらす)を避けるために、バランスが必要でした。
コンテキストウィンドウは、限られたブラックボードのように機能します。指示のためのより多くのスペースは、答えのために少なくなります。
ragの変化する役割
しかし、より最近の研究(2024年9月)はこれに反論し、RAGの重要性を強調し、以前の制限がプロンプト内のコンテキスト要素の順序に起因することを示唆しました。
ロングコンテキスト言語モデルの時代にragを守る
別の関連研究(2023年7月)は、長いプロンプト内の情報の位置的影響を強調しました。途中で失われた:言語モデルが長いコンテキストを使用する方法
プロンプトの先頭にある情報は、中央の情報よりもLLMによってより容易に利用されます。
ragの未来コンテキストウィンドウサイズの進歩にもかかわらず、主にコストの考慮事項のために、RAGは非常に重要です。 より長いプロンプトは、より多くの処理能力を必要とします。 RAGは、迅速なサイズを重要な情報に制限することにより、計算コストを大幅に削減します。 RAGの将来には、コストを最適化して質のある質を最適化するために、大規模なデータセットから無関係な情報をフィルタリングすることが含まれます。 特定のタスクに合わせて調整されたより小さな専門モデルの使用も、重要な役割を果たす可能性があります。
以上が検索された生成が依然として長いコンテキスト言語モデルの時代に関連する理由の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。