GPT-4有能力做论文评审吗?
来自斯坦福等大学的研究人员还真测试了一把。
他们丢给GPT-4数千篇来自Nature、ICLR等顶会的文章,让它生成评审意见(包括修改建议啥的),然后与人类给的意见进行比较。
经过调查,我们发现:
GPT-4提出的超50%观点与至少一名人类评审员一致;
并且有超过82.4%的作者发现GPT-4提供的意见非常有帮助
这项研究能给我们带来哪些启示呢?
结论是:
高质量的人类反馈仍然不可替代;但GPT-4可以帮助作者在正式同行评审前改进初稿。
具体来看。
为了证明GPT-4的潜力,研究人员首先用GPT-4创建了一个自动pipeline。
它能够分析整篇PDF格式的论文,提取标题、摘要、图表、表格标题等内容,以建立提示语
然后让GPT-4提供评审意见。
其中,意见和各顶会的标准一样,共包含四个部分:
研究的重要性和新颖性,以及可能被接受或拒绝的原因和改进建议
具体实验从两方面展开。
首先是量化实验:
阅读现有论文,生成反馈,并与真实人类观点进行系统比较,以找出重叠部分
在此,团队从Nature正刊和各大子刊挑选了3096篇文章,从ICLR机器学习会议(包含去年和今年)挑选了1709篇,共计4805篇。
其中,Nature论文共涉及8745条人类评审意见;ICLR会议涉及6506条。
GPT-4给出意见之后,pipeline就在match环节分别提取人类和GPT-4的论点,然后进行语义文本匹配,找到重叠的论点,以此来衡量GPT-4意见的有效性和可靠度。
结果是:
1、GPT-4意见与人类评审员真实意见显著重叠
整体来看,在Nature论文中,GPT-4有57.55%的意见与至少一位人类评审员一致;在ICLR中,这个数字则高达77.18%。
再进一步仔细比较GPT-4与每一位评审员的意见之后,团队又发现:
GPT-4在Nature论文上和人类评审员的重叠率下降为30.85%,在ICLR上降为39.23%。
然而,这与两位人类审稿人之间的重叠率相当
在Nature论文中,人类的平均重叠率为28.58%;而在ICLR上则为35.25%
此外,他们还通过分析论文的等级水平(oral、spotlight、或是直接被拒绝的)发现:
对于水平较弱的论文而言,GPT-4和人类审稿人之间的重叠率有望提高。从目前的30%多,可以增加到接近50%
这表明,GPT-4具有很高的辨别能力,可以辨别出水平较差的论文
作者也因此表示,那些需要更实质性修改才能被接收的论文有福了,大伙儿可以在正式提交前多试试GPT-4给出的修改意见。
2、GPT-4能够提供非通用的反馈
所谓非通用反馈,即GPT-4不会给出一个适用于多篇论文的通用评审意见。
在此,作者们衡量了一个“成对重叠率”的指标,结果发现它在Nature和ICLR上都显著降低到了0.43%和3.91%。
这表明GPT-4具有特定目标
3、能够与人类观点在重大、普遍问题上达成一致
一般而言,那些最早出现并且被多个评审员提及的意见,往往代表着重要且普遍存在的问题
在这里,团队还发现LLM更有可能识别出多个评审员一致认可的常见问题或缺陷
GPT-4在整体上表现尚可
4、GPT-4给的意见更强调一些与人类不同的方面
研究发现,GPT-4评论研究本身含义的频率是人类的7.27倍,评论研究新颖性的可能性是人类的10.69倍。
以及GPT-4和人类都经常建议进行额外的实验,但人类更关注于消融实验,GPT-4更建议在更多数据集上试试。
作者表示,这些发现表明,GPT-4和人类评审员在各方面的的重视程度各不相同,两者合作可能带来潜在优势。
定量实验之外是用户研究。
本次研究共有308名来自不同机构的AI和计算生物学领域的研究员参与,他们将各自的论文上传给GPT-4进行评审
研究团队收集了他们对GPT-4评审意见的真实反馈。
总体而言,超过一半(57.4%)的参与者认为GPT-4生成的反馈很有帮助,包括给到一些人类想不到的点。
以及82.4%的调查者认为它比至少一些人类评审员的反馈更有益。
此外,还有超过一半的人(50.5%)表示,愿意进一步使用GPT-4等大模型来改进论文。
其中一人表示,只需要5分钟GPT-4就给出了结果,这个反馈速度真的非常快,对研究人员改善论文很有帮助。
当然,作者强调:
GPT-4的能力也有一些限制
最明显的是它更关注于“整体布局”,缺少特定技术领域(例如模型架构)的深度建议。
因此,正如作者最后的结论所述:
在正式评审之前,人类评审员的高质量反馈是非常重要的,但我们可以先试水一下,以弥补实验和构建等方面的细节可能被遗漏的情况
当然,他们也提醒:
正式评审中,审稿人应该还是独立参与,不依赖任何LLM。
本研究一作共三位,都是华人,都来自斯坦福大学计算机科学学院。
他们分别是:
论文链接:https://arxiv.org/abs/2310.01783
以上是论文投Nature先问问GPT-4!斯坦福实测5000篇,一半意见跟人类评审没差别的详细内容。更多信息请关注PHP中文网其他相关文章!