大型语言模型 (LLM) 在需要最新和精确信息的知识密集型任务中往往力不从心。这就是检索增强生成 (RAG) 技术的用武之地,它将 LLM 的生成能力与外部知识库相结合,以提高准确性和相关性。 然而,传统的 RAG 系统在处理冗长复杂的文档时面临挑战,导致延迟增加,有时结果准确性下降。为了解决这些问题,推测性 RAG 的概念应运而生,成为一种很有前景的解决方案。让我们进一步了解它。