大型語言模型 (LLM) 在需要最新和精確信息的知識密集型任務中往往力不從心。這就是檢索增強生成 (RAG) 技術的用武之地,它將 LLM 的生成能力與外部知識庫相結合,以提高準確性和相關性。 然而,傳統的 RAG 系統在處理冗長複雜的文檔時面臨挑戰,導致延遲增加,有時結果準確性下降。為了解決這些問題,推測性 RAG 的概念應運而生,成為一種很有前景的解決方案。讓我們進一步了解它。