首页 >科技周边 >人工智能 >「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

WBOY
WBOY转载
2023-09-20 23:57:02860浏览

近年来,自动摘要技术取得了长足的进步,这主要归功于范式的转变——从在标注数据集上进行有监督微调转变为使用大语言模型(LLM)进行零样本提示,例如GPT-4。无需额外训练,精心设计的提示就能实现对摘要长度、主题、风格等方面特征的精细控制

但一个方面常常被忽视:摘要的信息密度。从理论上讲,作为对另一个文本的压缩,摘要应该比源文件更密集,也就是包含更多的信息。考虑到 LLM 解码的高延迟,用更少的字数涵盖更多的信息非常重要,尤其是对于实时应用而言。

然而,信息量密度是一个开放式的问题:如果摘要包含的细节不足,那么相当于没有信息量;如果包含的信息过多,又不增加总长度,就会变得难以理解。要在固定的词汇预算内传递更多信息,就需要将抽象、压缩、融合三者结合起来

在最近的一项研究中,来自 Salesforce、MIT 等机构的研究者试图通过征求人类对 GPT-4 生成的一组密度越来越高的摘要的偏好来确定这一限制。对于提升 GPT-4 等大语言模型的「表达能力」,这一方法提供了很多启发。

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

论文链接:https://arxiv.org/pdf/2309.04269.pdf

数据集地址:https://huggingface.co/datasets/griffin/chain_of_density

具体来说,他们的方法是将每个标记的平均实体数量作为密度的代表,生成一个初始的、实体稀少的摘要。然后,在不增加总长度(总长度为原摘要的5倍)的情况下,反复识别并融合前一个摘要中缺失的1-3个实体,使得每个摘要中实体与标记的比例都高于前一个摘要。通过人类偏好数据的分析,作者最终确定了一种几乎与人类编写的摘要一样密集的摘要形式,比普通 GPT-4 prompt 生成的摘要更加密集

该研究的总体贡献包括:

  • 开发一种基于 prompt 的迭代方法 (CoD),使得摘要的实体密度越来越高;
  • 对 CNN/《每日邮报》文章中越来越密集的摘要进行人工和自动评估,以更好地了解信息量(倾向于更多实体)和清晰度(倾向于更少的实体)之间的权衡;
  • 开源了 GPT-4 摘要、注释和一组 5000 篇未注释的 CoD 摘要,用于评估或提炼。

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

什么是 CoD

作者设定了一个名为"CoD"(密度链)的提示,用于生成初始摘要并逐渐增加其实体密度。具体而言,在固定的交互次数内,源文本中的一组独特突出实体被识别出来,并在不增加长度的情况下融合到之前的摘要中

在图2中,展示了Prompt和输出示例。作者并没有明确规定实体的类型,而是将缺失的实体定义为:

  • 相关:与主要故事相关;
  • 具体:描述性的但简洁(5 个字或更少);
  • 新颖:未出现在之前的摘要中;
  • 忠实:存在于文章中;
  • 任何地方:位于文章的任何地方。

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

作者从 CNN/DailyMail 摘要测试集中随机抽取了 100 篇文章,为其生成 CoD 摘要。为便于参考,他们将 CoD 摘要统计数据与人类撰写的要点式参考摘要以及 GPT-4 在普通 Prompt 下生成的摘要进行比较:「写一篇非常简短的文章摘要。请勿超过 70 个字。」

统计情况

在研究中,作者从直接统计数据和间接统计数据两方面进行了总结。直接统计数据(token、实体、实体密度)由 CoD 直接控制,而间接统计数据则是密集化的预期副产品。

重写后的内容如下:根据统计数据显示,通过删除冗长摘要中的不必要词语,第二步的平均长度减少了5个标记(从72个减少到67个)。初始实体密度为0.089,低于人类和Vanilla GPT-4(0.151和0.122),经过5个密集化步骤后,最终上升至0.167

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

间接统计。抽象度应该会随着每一步 CoD 的进行而增加,因为每增加一个实体,摘要就会被反复改写以腾出空间。作者用提取密度来衡量抽象性:提取片段的平均平方长度 (Grusky et al., 2018)。同样,随着实体被添加到固定长度的摘要中,概念融合度也应随之单调增加。作者用与每个摘要句子对齐的源句子的平均数量来表示融合度。在对齐上,作者使用相对 ROUGE 增益法 (Zhou et al., 2018),,该方法将源句与目标句对齐,直到额外句子的相对 ROUGE 增益不再为正。他们还预计内容分布(Content Distribution),也就是摘要内容所来源的文章中位置,会发生变化。

具体来说,作者预计《使命召唤》(CoD)摘要最初会表现出强烈的「引导偏向」,即在文章的开头部分会更多地引入实体。然而,随着文章的发展,这种引导偏向会逐渐减弱,开始从文章的中间和末尾引入实体。为了衡量这一点,研究者使用了融合中的对齐结果,并测量了所有对齐源句的平均句子等级

图 3 证实了这些假设:随着重写步骤的增加,抽象性也随之增加(左侧提取密度较低),融合率上升(中图),摘要开始纳入文章中间和末尾的内容(右图)。有趣的是,与人类撰写的摘要和基线摘要相比,所有 CoD 摘要都更具抽象性

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

结果

为了更好地理解CoD摘要的权衡,作者进行了一项基于偏好的人类研究,并利用GPT-4进行了基于评级的评估

人类偏好。具体来说,对于同样的 100 篇文章(5 个 step *100 = 总共 500 篇摘要),作者向论文的前四位作者随机展示了经过「重新创作」的 CoD 摘要以及文章。根据 Stiennon et al. (2020) 对「好摘要」的定义,每位注释者都给出了自己最喜欢的摘要。表 2 报告了各注释者在 CoD 阶段的第一名得票情况,以及各注释者的汇总情况。总的来说,61% 的第一名摘要(23.0+22.5+15.5)涉及≥3 个致密化步骤。首选 CoD 步数的中位数位于中间(3),预期步数为 3.06。

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

根据 Step 3 摘要的平均密度,可以大致推断出所有 CoD 候选者的首选实体密度为 ∼ 0.15。从表 1 中可以看出,这一密度与人类编写的摘要(0.151)相一致,但明显高于用普通 GPT-4 Prompt 编写的摘要(0.122)。

自动度量。作为人工评估的补充(如下),作者用 GPT-4 从 5 个维度对 CoD 摘要进行评分(1-5 分):信息量、质量、连贯性、可归属性和整体性。如表 3 所示,密集度与信息量相关,但有一个限度,在步骤 4(4.74)时得分达到顶峰。

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

从各维度的平均得分来看,CoD 的第一个和最后一个步骤得分最低,而中间三个步骤得分接近(分别为 4.78、4.77 和 4.76)。

定性分析。摘要的连贯性 / 可读性与信息量之间存在明显的权衡。图4展示了两个CoD步骤:一个步骤的摘要因为更多细节而改善,而另一个步骤的摘要则受到了损害。总体而言,中间的CoD摘要能够实现这种平衡,但这种权衡仍需要在今后的工作中进行精确定义和量化

「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源

更多论文细节,可参考原论文。

以上是「字少信息量大」,Salesforce、MIT 研究者教 GPT-4「改稿」,数据集已开源的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除