>让我们探索在越来越强大的大型语言模型(LLMS)的背景下,检索增强生成(RAG)的演变。 我们将研究LLM中的进步如何影响抹布的必要性。 > rag
的简短历史参数内存:
LLM固有的知识,在其在庞大的文本数据集上培训期间获得的知识。 Chatgpt的2022年11月发布的发布可能会出现LLM的查询答案的潜力,但也突出了限制:
,并指示LLM回答基于该上下文中的
该提示是LLM的答案生成的起点。 这种方法大大降低了幻觉,启用了对最新数据的访问,并促进了特定于业务的数据的使用。
>以有限上下文窗口大小为中心的初始挑战。 Chatgpt-3.5的4K令牌限制(大约3000个英语单词)限制了上下文和答案长度的数量。 需要保持平衡,以避免过度漫长的上下文(限制答案的长度)或不足的上下文(有遗漏关键信息的风险)。
>上下文窗口的作用就像有限的黑板;更多的说明空间留下了更少的答案。
>
rag的转移作用>
在长篇小说语言模型的时代,>检索增强发电或长篇小写LLM?全面的研究和混合方法
但是,一项最新的研究(2024年9月)对此进行了反对,强调了抹布的重要性,并表明先前的限制源于提示中的上下文要素的顺序。
在中间丢失:语言模型如何使用长上下文>>另一项相关研究(2023年7月)强调了信息在长提示中的位置影响。
在提示开始时的>>>信息比中间的信息更容易使用。 rag
的未来 尽管上下文窗口大小的进步,但抹布仍然至关重要,这主要是由于成本考虑。 更长的提示需要更多的处理能力。 抹布,通过将及时尺寸限制为基本信息,大大降低了计算成本。 破布的未来可能涉及从大型数据集中过滤无关的信息,以优化成本和回答质量。 使用针对特定任务量身定制的较小专业模型也可能发挥重要作用。
以上是为什么在长篇小说模型的时代仍然有意义的详细内容。更多信息请关注PHP中文网其他相关文章!