人工智能发展进步神速,但问题频出。OpenAI 新出的 GPT 视觉 API 前脚让人感叹效果极好,后脚又因幻觉问题令人不禁吐槽。
幻觉一直是大模型的致命缺陷。由于数据集庞杂,其中难免会有过时、错误的信息,导致输出质量面临着严峻的考验。过多重复的信息还会使大模型形成偏见,这也是幻觉的一种。但是幻觉并非无解命题。开发过程中对数据集慎重使用、严格过滤,构建高质量数据集,以及优化模型结构、训练方式都能在一定程度上缓解幻觉问题。
有那么多流行的大型模型,它们对缓解幻觉的效果如何呢?这里有一个明确对比它们差距的排行榜
Vectara 平台发布了这个排行榜,该平台专注于人工智能。排行榜的更新日期是2023年11月1日,Vectara 表示他们将会继续跟进幻觉评估,以便随着模型的更新而更新排行榜
项目地址:https://github.com/vectara/hallucination-leaderboard
为了确定这个排行榜,Vectara进行了事实一致性研究,并训练了一个模型来检测LLM输出中的幻觉。他们使用了一个媲美SOTA模型,并通过公共API向每个LLM提供了1000篇简短文档,并要求它们仅使用文档中呈现的事实对每篇文档进行总结。在这1000篇文档中,只有831篇文档被每个模型总结,其余文档由于内容限制被至少一个模型拒绝回答。利用这831份文件,Vectara计算了每个模型的总体准确率和幻觉率。每个模型拒绝响应prompt的比率详见「Answer Rate」一栏。发送给模型的内容都不包含非法或不安全内容,但其中的触发词足以触发某些内容过滤器。这些文件主要来自CNN/每日邮报语料库
需要注意的是,Vectara 评估的是摘要准确性,而不是整体事实准确性。这样可以比较模型对所提供信息的响应。换句话说,评估的是输出摘要是否与源文件「事实一致」。由于不知道每个 LLM 是在什么数据上训练的,因此对于任何特别问题来说,确定幻觉都是不可能的。此外,要建立一个能够在没有参考源的情况下确定回答是否是幻觉的模型,就需要解决幻觉问题,而且需要训练一个与被评估的 LLM 一样大或更大的模型。因此,Vectara 选择在总结任务中查看幻觉率,因为这样的类比可以很好地确定模型整体真实性。
幻觉模型的检测地址是:https://huggingface.co/vectara/hallucination_evaluation_model
此外,越来越多的LLM被用于RAG(Retrieval Augmented Generation,检索增强生成)管道以回答用户的查询,如Bing Chat和谷歌聊天集成。在RAG系统中,模型被部署为搜索结果的汇总器,因此该排行榜也是衡量模型在RAG系统中使用时准确性的良好指标
鉴于GPT-4一直以来的出色表现,它的幻觉率最低似乎不足为奇。然而,一些网友表示,他们对于GPT-3.5和GPT-4之间并没有太大的差距感到惊讶
在追赶GPT-4和GPT-3.5之后,LLaMA 2表现出色。然而,谷歌的大型模型表现让人不满意。一些网友表示,谷歌的BARD常常用“我还在训练中”来回避其错误答案
有了这样的排行榜,能够让我们对于不同模型之间的优劣有更加直观的判断。前几天,OpenAI 推出了 GPT-4 Turbo,这不,立刻有网友提议将其也更新在排行榜中。
下次的排行榜会是怎样的,有没有大幅变动,我们拭目以待。
以上是大模型幻觉率排行:GPT-4 3%最低,谷歌Palm竟然高达27.2%的详细内容。更多信息请关注PHP中文网其他相关文章!