大模型的「幻觉」问题马上要有解了?
威斯康星麦迪逊大学和谷歌的研究人员最近推出ASPIRE系统,使大模型能够自评输出。
如果用户看到模型的生成的结果评分不高,就能意识到这个回复可能是幻觉。
如果系统能够根据评分结果进一步筛选输出内容,例如当评分较低时,大模型可以生成类似"我无法回答此问题"的语句,这可能最大程度地改善幻觉问题。
论文地址:https://aclanthology.org/2023.findings-emnlp.345.pdf
ASPIRE能让LLM输出答案以及答案的置信度得分。
研究人员的实验结果表明,ASPIRE在各种QA数据集(例如 CoQA 基准)上显着优于传统的选择性预测方法。
让LLM不仅要回答问题,还要评估这些答案 。
在选择性预测的基准测试上,研究人员通过ASPIRE系统取得了超过10倍规模的模型的成绩。
就像让学生在课本后面验证他们自己的答案,虽然听起来有点不靠谱,但是细细一想,每个人在做出一道题目之后,确实会对答案的满意程度会有一个评分。
这就是ASPIRE的本质,它涉及三个阶段:
(1) 针对特定任务的调优,
(2) 答案采样,
( 3) 自我评估学习。
在研究人员看来,ASPIRE不仅仅是另一个框架,它代表着一个全面提升LLM可靠性,降低幻觉的美好未来。
如果LLM可以成为决策过程中值得信赖的合作伙伴。
只要通过不断优化选择性预测的能力,人类距离充分发挥大模型的潜力就又近了一步。
研究人员希望能凭借ASPIRE,开启下一代LLM的进化,从而能创建更可靠和更具有自我意识的人工智能。
ASPIRE 的机制
针对特定任务的微调
ASPIRE执行特定于任务的微调以训练适应性参数,同时冻结LLM。
给定生成任务的训练数据集,它会微调预训练的LLM以提高其预测性能。
为此,可以采用参数高效的微调技术(例如,软提示词微调和LoRA)来微调任务上的预训练LLM,因为它们可以有效地通过少量目标获得强泛化任务数据。
具体来说,LLM参数(θ)被冻结,并添加自适应参数进行微调。
仅更新 θ (p) 以最小化标准 LLM 训练损失(例如交叉熵)。
这种微调可以提高选择性预测性能,因为它不仅提高了预测精度,而且还提高了正确输出序列的可能性。
答案采样
在针对特定任务进行调优后,ASPIRE使用LLM和学习到的为每个训练问题生成不同的答案,并创建用于自评估学习的数据集。
研究人员的目标是生成具有高可能性的输出序列。他们使用波束搜索(Beam Search)作为解码算法来生成高似然输出序列,并使用Rouge-L度量来确定生成的输出序列是否正确。
自评估学习
在对每个查询的高似然输出进行采样后,ASPIRE添加自适应参数,并且仅微调
来学习自评估。
由于输出序列的生成仅取决于 θ 和,因此冻结 θ 和学习到的
可以避免在学习自评估时改变LLM的预测行为-评估。
研究人员优化了,使得改编后的LLM可以自己区分正确和错误的答案。
在这个框架中,可以使用任何参数有效的微调方法来训练和
。
在这项工作中,研究人员使用软提示微调,这是一种简单而有效的机制,用于学习「软提示」来调节冻结的语言模型,从而比传统的离散文本提示更有效地执行特定的下游任务。
这种方法背后的核心在于认识到,如果能够开发出有效激发自我评价的提示,那么应该可以通过结合有针对性的训练目标的软提示微调来发现这些提示。
在训练和
后,研究人员通过波束搜索解码获得查询的预测(beam search decoding)。
然后,研究人员定义一个选择分数,将生成答案的可能性与学习到的自我评估分数(即,预测对于查询正确的可能性)结合起来,以做出选择性预测。
结果
为了证明ASPIRE的效果,研究人员使用各种开放式预训练Transformer (OPT)模型在三个问答数据集(CoQA、TriviaQA和SQuAD)上对其进行评估。
通过使用软提示调整训练研究人员观察到LLM的准确性大幅提高。
例如,与使用CoQA和SQuAD数据集的较大预训练OPT-30B模型相比,采用ASPIRE的OPT-2.7B模型表现出更好的性能。
这些结果表明,通过适当的调整,较小的LLM在某些情况下可能有能力匹配或可能超过较大模型的准确性。
当深入研究固定模型预测的选择分数计算时,ASPIRE获得了比所有数据集的基线方法更高的AUROC分数(随机选择的正确输出序列比随机选择的不正确输出序列具有更高选择分数的概率)。
例如,在CoQA基准上,与基线相比,ASPIRE将AUROC从51.3%提高到80.3%。
TriviaQA数据集评估中出现了一个有趣的模式。
虽然预训练的OPT-30B模型表现出更高的基线精度,但当应用传统的自我评估方法(Self-eval和P(True))时,其选择性预测的性能并没有显著提高。
相比之下,小得多的OPT-2.7B模型在使用ASPIRE进行增强后,在这方面表现优于其他模型。
这种差异体现了一个重要的问题:利用传统自我评估技术的较大LLM在选择性预测方面可能不如较小的ASPIRE增强模型有效。
研究人员与ASPIRE的实验之旅强调了LLM格局的关键转变:语言模型的容量并不是其性能的全部和最终目的。
相反,可以通过策略调整来大幅提高模型的有效性,即使在较小的模型中也可以进行更精确、更自信的预测。
因此,ASPIRE证明了LLM的潜力,它可以明智地确定自己答案的确定性,并在选择性预测任务中显著地超越地超越其他10倍体量的模型。
以上是谷歌新方法ASPIRE:赋予LLM自我评分能力,有效解决「幻觉」问题,超越10倍体积模型的详细内容。更多信息请关注PHP中文网其他相关文章!

拥抱Face的OlympicCoder-7B:强大的开源代码推理模型 开发以代码为中心的语言模型的竞赛正在加剧,拥抱面孔与强大的竞争者一起参加了比赛:OlympicCoder-7B,一种产品

你们当中有多少人希望AI可以做更多的事情,而不仅仅是回答问题?我知道我有,最近,我对它的变化感到惊讶。 AI聊天机器人不仅要聊天,还关心创建,研究

随着智能AI开始融入企业软件平台和应用程序的各个层面(我们必须强调的是,既有强大的核心工具,也有一些不太可靠的模拟工具),我们需要一套新的基础设施能力来管理这些智能体。 总部位于德国柏林的流程编排公司Camunda认为,它可以帮助智能AI发挥其应有的作用,并与新的数字工作场所中的准确业务目标和规则保持一致。该公司目前提供智能编排功能,旨在帮助组织建模、部署和管理AI智能体。 从实际的软件工程角度来看,这意味着什么? 确定性与非确定性流程的融合 该公司表示,关键在于允许用户(通常是数据科学家、软件

参加Google Cloud Next '25,我渴望看到Google如何区分其AI产品。 有关代理空间(此处讨论)和客户体验套件(此处讨论)的最新公告很有希望,强调了商业价值

为您的检索增强发电(RAG)系统选择最佳的多语言嵌入模型 在当今的相互联系的世界中,建立有效的多语言AI系统至关重要。 强大的多语言嵌入模型对于RE至关重要

特斯拉的Austin Robotaxi发射:仔细观察Musk的主张 埃隆·马斯克(Elon Musk)最近宣布,特斯拉即将在德克萨斯州奥斯汀推出的Robotaxi发射,最初出于安全原因部署了一支小型10-20辆汽车,并有快速扩张的计划。 h

人工智能的应用方式可能出乎意料。最初,我们很多人可能认为它主要用于代劳创意和技术任务,例如编写代码和创作内容。 然而,哈佛商业评论最近报道的一项调查表明情况并非如此。大多数用户寻求人工智能的并非是代劳工作,而是支持、组织,甚至是友谊! 报告称,人工智能应用案例的首位是治疗和陪伴。这表明其全天候可用性以及提供匿名、诚实建议和反馈的能力非常有价值。 另一方面,营销任务(例如撰写博客、创建社交媒体帖子或广告文案)在流行用途列表中的排名要低得多。 这是为什么呢?让我们看看研究结果及其对我们人类如何继续将


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

适用于 Eclipse 的 SAP NetWeaver 服务器适配器
将Eclipse与SAP NetWeaver应用服务器集成。

Dreamweaver Mac版
视觉化网页开发工具

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

螳螂BT
Mantis是一个易于部署的基于Web的缺陷跟踪工具,用于帮助产品缺陷跟踪。它需要PHP、MySQL和一个Web服务器。请查看我们的演示和托管服务。

WebStorm Mac版
好用的JavaScript开发工具