搜索
首页科技周边人工智能新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

大型语言模型(LLM)的强大已经是不容置疑的事实,然而它们有时仍然会犯一些简单的错误,显示出推理能力较弱的一面

举个例子,LLM 可能会因为不相关的上下文或者输入提示中固有的偏好或意见而做出错误的判断。后一种情况表现出的问题被称为「阿谀奉承」,即模型与输入保持一致

是否有任何方法可以缓解这类问题呢?一些学者尝试通过添加更多的监督训练数据或强化学习策略来解决,但这些方法无法从根本上解决问题

在最近的一项研究中,Meta研究者指出,Transformer模型本身的构建方式存在根本性问题,尤其是其注意力机制。换句话说,软注意力倾向于将概率分配给大部分上下文(包括不相关的部分),并且过度关注重复的标记

因此,研究人员提出了一种完全不同的注意力机制方法,即通过将LLM用作一个自然语言推理器来执行注意力。具体来说,他们利用LLM遵循指令的能力,提示它们生成应该关注的上下文,从而使它们只包含不会扭曲自身推理的相关资料。研究人员将这一过程称为System 2 Attention(S2A),他们将底层transformer及其注意力机制视为类似于人类System 1推理的自动操作

当人们需要特别关注一项任务并且 System 1 可能出错时,System 2 就会分配费力的脑力活动,并接管人类的工作。因此,这一子系统与研究者提出的 S2A 具有类似目标,后者希望通过额外的推理引擎工作来减轻上述 transformer 软注意力的失败

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

需要重写的内容是:论文链接:https://arxiv.org/pdf/2311.11829.pdf

研究者对S2A机制的类别、提出动机以及几个具体实现进行了详细描述。在实验阶段,他们证实S2A相比基于标准注意力的LLM,可以产生更加客观、少见主观偏见或谄媚的LLM

特别是在问题中包含干扰性观点的修正后 TriviQA 数据集上,与 LLaMA-2-70B-chat 相比,S2A 将事实性从 62.8% 提高到 80.3%;在包含干扰性输入情绪的长格式参数生成任务重,S2A 的客观性提高了 57.4%,并且基本上不受插入观点的影响。此外对于 GSM-IC 中带有与主题不相关语句的数学应用题,S2A 将准确率从 51.7% 提高到了 61.3%。

这项研究得到了 Yann LeCun 的推荐。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

System 2 Attention 

下图1展示了一个伪相关示例。当上下文中包含不相关的句子时,即使是最强大的LLM也会改变对于简单事实问题的答案,因为上下文中出现的词语无意间增加了错误答案的概率

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

因此,我们需要研究一种更深入理解的、更深思熟虑的注意力机制。为了与更底层的注意力机制区分开来,研究者提出了一个被称为S2A的系统。他们探索了一种利用LLM本身来构建这种注意力机制的方法,特别是通过移除不相关的文本来重写上下文的指令调整LLM

通过这种方法,LLM 能够在产生回应之前对输入的相关部分进行仔细推理和决策。使用指令调整的 LLM 还有一个优点,就是可以控制注意力的焦点,这与人类控制自己注意力的方式有些相似

S2A包括两个步骤:

  • 给定上下文 x,S2A 首先重新生成上下文 x ',从而删除会对输出产生不利影响的上下文的不相关部分。本文将其表示为 x ′ ∼ S2A (x)。
  • 给定 x ′ ,然后使用重新生成的上下文而不是原始上下文生成 LLM 的最终响应:y ∼ LLM (x ′ )。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

替代实现和变体

在本文中,我们研究了S2A方法的几种不同版本

无上下文和问题分离。在图 2 的实现中,本文选择重新生成分解为两部分(上下文和问题)的上下文。图 12 给出了该提示变体。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

保留原始上下文在 S2A 中,在重新生成上下文之后,应该包含所有应该注意的必要元素,然后模型仅在重新生成的上下文上进行响应,原始上下文被丢弃。图 14 给出了该提示变体。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

指令式提示。图 2 中给出的 S2A 提示鼓励从上下文中删除固执己见的文本,并使用步骤 2(图 13)中的说明要求响应不固执己见。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

S2A的实现都强调重新生成上下文以提高客观性并减少阿谀奉承。然而,该文章认为还有其他需要强调的点,比如,我们可以强调相关性与不相关性。图15中的提示变体就给出了一个实例

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

实验

本文进行了三种设置下的实验:事实问答、长论点生成和解决数学应用题。此外,本文还使用LLaMA-2-70B-chat作为基础模型,在两种设置下进行了评估

  • 基线:数据集中提供的输入提示被馈送到模型,并以零样本方式回答。模型生成可能会受到输入中提供的虚假相关性的影响。
  • Oracle Prompt:没有附加意见或不相关句子的提示被输入到模型中,并以零样本的方式回答。 

图 5 (左) 展示了在事实问答上的评估结果。System 2 Attention 比原来的输入提示有了很大的改进,准确率达到 80.3%—— 接近 Oracle Prompt 性能。

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

总体结果显示,基线、Oracle Prompt和System 2 Attention都被评估为能够提供类似的高质量评估。图6(右)显示了分项结果:

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

在GSM-IC任务中,图7展示了不同方法的结果。与Shi等人的研究结果一致,我们发现基线准确率远低于oracle。当不相关的句子与问题属于同一主题时,这种影响甚至更大,如图7(右)所示

新标题:Meta改进Transformer架构:强化推理能力的新注意力机制

了解更多内容,请参考原论文。

以上是新标题:Meta改进Transformer架构:强化推理能力的新注意力机制的详细内容。更多信息请关注PHP中文网其他相关文章!

声明
本文转载于:51CTO.COM。如有侵权,请联系admin@php.cn删除
及时工程中的思想图是什么及时工程中的思想图是什么Apr 13, 2025 am 11:53 AM

介绍 在迅速的工程中,“思想图”是指使用图理论来构建和指导AI的推理过程的新方法。与通常涉及线性S的传统方法不同

优化您的组织与Genai代理商的电子邮件营销优化您的组织与Genai代理商的电子邮件营销Apr 13, 2025 am 11:44 AM

介绍 恭喜!您经营一家成功的业务。通过您的网页,社交媒体活动,网络研讨会,会议,免费资源和其他来源,您每天收集5000个电子邮件ID。下一个明显的步骤是

Apache Pinot实时应用程序性能监视Apache Pinot实时应用程序性能监视Apr 13, 2025 am 11:40 AM

介绍 在当今快节奏的软件开发环境中,确保最佳应用程序性能至关重要。监视实时指标,例如响应时间,错误率和资源利用率可以帮助MAIN

Chatgpt击中了10亿用户? Openai首席执行官说:'短短几周内翻了一番Chatgpt击中了10亿用户? Openai首席执行官说:'短短几周内翻了一番Apr 13, 2025 am 11:23 AM

“您有几个用户?”他扮演。 阿尔特曼回答说:“我认为我们上次说的是每周5亿个活跃者,而且它正在迅速增长。” “你告诉我,就像在短短几周内翻了一番,”安德森继续说道。 “我说那个私人

pixtral -12b:Mistral AI'第一个多模型模型 - 分析Vidhyapixtral -12b:Mistral AI'第一个多模型模型 - 分析VidhyaApr 13, 2025 am 11:20 AM

介绍 Mistral发布了其第一个多模式模型,即Pixtral-12b-2409。该模型建立在Mistral的120亿参数Nemo 12B之上。是什么设置了该模型?现在可以拍摄图像和Tex

生成AI应用的代理框架 - 分析Vidhya生成AI应用的代理框架 - 分析VidhyaApr 13, 2025 am 11:13 AM

想象一下,拥有一个由AI驱动的助手,不仅可以响应您的查询,还可以自主收集信息,执行任务甚至处理多种类型的数据(TEXT,图像和代码)。听起来有未来派?在这个a

生成AI在金融部门的应用生成AI在金融部门的应用Apr 13, 2025 am 11:12 AM

介绍 金融业是任何国家发展的基石,因为它通过促进有效的交易和信贷可用性来推动经济增长。交易的便利和信贷

在线学习和被动攻击算法指南在线学习和被动攻击算法指南Apr 13, 2025 am 11:09 AM

介绍 数据是从社交媒体,金融交易和电子商务平台等来源的前所未有的速度生成的。处理这种连续的信息流是一个挑战,但它提供了

See all articles

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
3 周前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳图形设置
3 周前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您听不到任何人,如何修复音频
3 周前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解锁Myrise中的所有内容
4 周前By尊渡假赌尊渡假赌尊渡假赌

热工具

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

功能强大的PHP集成开发环境

SublimeText3 英文版

SublimeText3 英文版

推荐:为Win版本,支持代码提示!

DVWA

DVWA

Damn Vulnerable Web App (DVWA) 是一个PHP/MySQL的Web应用程序,非常容易受到攻击。它的主要目标是成为安全专业人员在合法环境中测试自己的技能和工具的辅助工具,帮助Web开发人员更好地理解保护Web应用程序的过程,并帮助教师/学生在课堂环境中教授/学习Web应用程序安全。DVWA的目标是通过简单直接的界面练习一些最常见的Web漏洞,难度各不相同。请注意,该软件中

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

EditPlus 中文破解版

EditPlus 中文破解版

体积小,语法高亮,不支持代码提示功能