首頁  >  文章  >  科技週邊  >  谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

WBOY
WBOY轉載
2024-01-23 17:21:13755瀏覽

大模型的「幻觉」问题马上要有解了?

威斯康星麦迪逊大学和谷歌的研究人员最近推出ASPIRE系统,使大模型能够自评输出。

如果用户看到模型的生成的结果评分不高,就能意识到这个回复可能是幻觉。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

如果系统能够根据评分结果进一步筛选输出内容,例如当评分较低时,大模型可以生成类似"我无法回答此问题"的语句,这可能最大程度地改善幻觉问题。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

论文地址:https://aclanthology.org/2023.findings-emnlp.345.pdf

ASPIRE能让LLM输出答案以及答案的置信度得分。

研究人员的实验结果表明,ASPIRE在各种QA数据集(例如 CoQA 基准)上显著优于传统的选择性预测方法。

让LLM不仅要回答问题,还要评估这些答案 。

选择性预测的基准测试上,研究人员通过ASPIRE系统取得了超过10倍规模的模型的成绩。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

就像让学生在课本后面验证他们自己的答案,虽然听起来有点不靠谱,但是细细一想,每个人在做出一道题目之后,确实会对答案的满意程度会有一个评分。

这就是ASPIRE的本质,它涉及三个阶段:

(1) 针对特定任务的调优,

(2) 答案采样,

(3) 自我评估学习。

在研究人员看来,ASPIRE不仅仅是另一个框架,它代表着一个全面提升LLM可靠性,降低幻觉的美好未来。

如果LLM可以成为决策过程中值得信赖的合作伙伴。

只要通过不断优化选择性预测的能力,人类距离充分发挥大模型的潜力就又近了一步。

研究人员希望能凭借ASPIRE,开启下一代LLM的进化,从而能创建更可靠和更具有自我意识的人工智能。

ASPIRE 的机制

针对特定任务的微调

ASPIRE执行特定于任务的微调以训练适应性参数谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型,同时冻结LLM。

给定生成任务的训练数据集,它会微调预训练的LLM以提高其预测性能。

为此,可以采用参数高效的微调技术(例如,软提示词微调和LoRA)来微调任务上的预训练LLM,因为它们可以有效地通过少量目标获得强泛化任务数据。

具体来说,LLM参数(θ)被冻结,并添加自适应参数谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型进行微调。

仅更新 θ (p) 以最小化标准 LLM 训练损失(例如交叉熵)。

这种微调可以提高选择性预测性能,因为它不仅提高了预测精度,而且还提高了正确输出序列的可能性。

答案取樣

在針對特定任務進行調優後,ASPIRE使用LLM和學習到的谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型為每個訓練問題產生不同的答案,並建立用於自評估學習的資料集。

研究人員的目標是產生具有高可能性的輸出序列。他們使用波束搜尋(Beam Search)作為解碼演算法來產生高似然輸出序列,並使用Rouge-L度量來確定產生的輸出序列是否正確。

自評估學習

#在對每個查詢的高似然輸出進行取樣後,ASPIRE添加自適應參數谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型,並且僅微調谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型來學習自評估。

由於輸出序列的產生只取決於θ 和谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型,因此凍結θ 和學習到的谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型可以避免在學習自評估時改變LLM的預測行為-評估。

研究者優化了谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型,使得改編後的LLM可以自己區分正確和錯誤的答案。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

在這個框架中,可以用任何參數有效的微調方法來訓練谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

在這項工作中,研究人員使用軟提示微調,這是一種簡單而有效的機制,用於學習「軟提示」來調節凍結的語言模型,從而比傳統的離散文本提示更有效地執行特定的下游任務。

這種方法背後的核心在於認識到,如果能夠發展出有效激發自我評價的提示,那麼應該可以透過結合有針對性的訓練目標的軟提示微調來發現這些提示。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

在訓練谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型#和谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型後,研究人員透過波束搜尋解碼獲得查詢的預測(beam search decoding)。

然後,研究人員定義一個選擇分數,將產生答案的可能性與學習到的自我評估分數(即,預測對於查詢正確的可能性)結合起來,以做出選擇性預測。

結果

為了證明ASPIRE的效果,研究人員使用各種開放式預訓練Transformer (OPT)模型在三個問答數據集(CoQA、TriviaQA和SQuAD)上進行評估。

通过使用软提示调整训练谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型研究人员观察到LLM的准确性大幅提高。

例如,与使用CoQA和SQuAD数据集的较大预训练OPT-30B模型相比,采用ASPIRE的OPT-2.7B模型表现出更好的性能。

这些结果表明,通过适当的调整,较小的LLM在某些情况下可能有能力匹配或可能超过较大模型的准确性。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

当深入研究固定模型预测的选择分数计算时,ASPIRE获得了比所有数据集的基线方法更高的AUROC分数(随机选择的正确输出序列比随机选择的不正确输出序列具有更高选择分数的概率)。

例如,在CoQA基准上,与基线相比,ASPIRE将AUROC从51.3%提高到80.3%。

TriviaQA数据集评估中出现了一个有趣的模式。

虽然预训练的OPT-30B模型表现出更高的基线精度,但当应用传统的自我评估方法(Self-eval和P(True))时,其选择性预测的性能并没有显著提高。

相比之下,小得多的OPT-2.7B模型在使用ASPIRE进行增强后,在这方面表现优于其他模型。

这种差异体现了一个重要的问题:利用传统自我评估技术的较大LLM在选择性预测方面可能不如较小的ASPIRE增强模型有效。

谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型

研究人员与ASPIRE的实验之旅强调了LLM格局的关键转变:语言模型的容量并不是其性能的全部和最终目的。

相反,可以通过策略调整来大幅提高模型的有效性,即使在较小的模型中也可以进行更精确、更自信的预测。

因此,ASPIRE证明了LLM的潜力,它可以明智地确定自己答案的确定性,并在选择性预测任务中显著地超越地超越其他10倍体量的模型。

以上是谷歌新方法ASPIRE:賦予LLM自我評分能力,有效解決「幻覺」問題,超越10倍體積模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除