今天我们要介绍一篇论文《REACT: 在语言模型中结合推理和行为》,这篇论文是由谷歌研究院和普林斯顿大学的研究人员合作完成的。他们在探索语言模型中结合推理和行为的潜力时,发布了这篇论文。虽然大型语言模型(LLM)的推理能力和行动能力已经分别进行了研究,但这是第一次将这两种能力结合到一个系统中。因此,我认为这篇论文非常重要。ReAct框架允许虚拟代理使用各种工具,如连接到web和SQL数据库,从而提供几乎无限的扩展性
人类智能的特点是将以任务为导向的行动和关于下一步行动的推理无缝结合。这种能力使我们能够快速学习新任务并做出可靠的决定,而且可以适应不可预见的情况。ReAct的目标就是在语言模型中复制这种协同作用,使它们能够以交错的方式生成推理步骤和特定于任务的操作
ReAct提示大型语言模型为给定任务生成口头推理历史步骤和操作。这些提示由少量的上下文示例组成,这些示例指导模型的思考和操作生成。下面的图中给出了一个上下文示例。这些例子引导代理经历一个循环过程:产生一个想法,采取一个行动,然后观察行动的结果。通过结合推理跟踪和操作,ReAct允许模型执行动态推理,这样可以生成高级计划,还可以与外部环境交互以收集额外的信息
研究人员将ReAct应用于多种语言推理和决策任务,包括问题回答、事实验证、基于文本的游戏和网页导航。结果非常出色,ReAct在可解释性和可信赖性方面始终优于其他最先进的基线
在问答和事实验证任务中,ReAct利用与简单的Wikipedia API的交互,成功克服了推理过程中常见的幻觉和错误传播问题。它生成了类似于人类解决任务的步骤,比没有推理痕迹的基准模型更容易解释。在交互式决策基准测试中,即使只有一两个上下文示例,ReAct的表现也明显优于模仿学习和强化学习方法
尽管推理、行动和观察步骤相互交织,提高了ReAct的可靠性和可信度,但这种结构也限制了其推理步骤的灵活性,导致在某些任务上的推理错误率高于思维链提示
研究人员还进行了消融实验,以了解在不同任务中推理和行动的重要性。他们发现,将ReAct的内部推理和外部行为结合起来始终优于专注于推理或单独行动的基线。这凸显了整合这两个过程以获得更有效决策的价值
尽管ReAct已经取得了良好的成果,但仍有改进的空间。研究人员建议扩大ReAct的规模,以训练和操作更多的任务,并将其与强化学习等互补范例结合起来。此外,还可以使用更多的人工注释数据对模型进行微调,以进一步提高性能
ReAct在开发更智能、更通用的AI系统方面迈出了一大步,并且它还支持Langchain库中一些非常有用的代理功能。通过将推理和行为结合在语言模型中,已经证明在一系列任务中性能得到了提升,同时也增强了可解释性和可信度。随着人工智能的不断发展,推理和行为的整合将在创造更具能力和适应性的人工智能系统方面起到关键作用
请提供论文的链接:
以上是实现更智能的AI:将推理和行为融合于语言模型中的ReAct技术的详细内容。更多信息请关注PHP中文网其他相关文章!