随着大型语言模型(LLM)的发展,从业者面临更多挑战。如何避免 LLM 产生有害回复?如何快速删除训练数据中的版权保护内容?如何减少 LLM 幻觉(hallucinations,即错误事实)? 如何在数据政策更改后快速迭代 LLM?这些问题在人工智能法律和道德的合规要求日益成熟的大趋势下,对于 LLM 的安全可信部署至关重要。
目前业界的主流解决方案是通过使用强化学习的方式对齐LLM(对齐)来微调对比数据(正样本和负样本),以确保LLM的输出符合人类的预期和价值观。然而,这个对齐过程通常会受到数据收集和计算资源的限制
字节跳动提出了一种让LLM进行遗忘学习的方法来进行对齐。本文研究了如何在LLM上进行"遗忘"操作,即忘记有害行为或遗忘学习(Machine Unlearning)。作者展示了遗忘学习在三种LLM对齐场景上取得的明显效果:(1)删除有害输出;(2)移除侵权保护内容;(3)消除大语言LLM幻觉
遗忘学习有三个优势:(1) 只需负样本(有害样本),负样本比 RLHF 所需的正样本(高质量的人工手写输出)的收集简单的多(比如红队测试或用户报告);(2) 计算成本低;(3) 如果知道哪些训练样本导致 LLM 有害行为时,遗忘学习尤为有效。
作者的论点是,对于资源有限的从业者来说,他们应该优先考虑停止产生有害输出,而不是试图追求过于理想化的输出,并且忘记学习是一种方便的方法。尽管只有负样本,研究表明,在只使用2%的计算时间下,忘记学习仍然可以获得比强化学习和高温高频算法更好的对齐性能
- 论文地址:https://arxiv.org/abs/2310.10683
- 代码地址:https://github.com/kevinyaobytedance/llm_unlearn
使用场景
在资源有限的情况下,我们可以采用这种方法来最大程度地发挥优势。当我们没有预算请人员编写高质量样本或者计算资源不足时,我们应该优先停止 LLM 产生有害输出,而不是试图让它产生有益输出
有害的输出所造成的损害是无法被有益的输出所弥补的。如果一个用户向LLM提出100个问题,他得到的答案是有害的,那么他将失去信任,无论LLM之后提供了多少有益的答案。有害问题的预期输出可能是空格、特殊字符、无意义的字符串等,总之,必须是无害的文本
展示了LLM遗忘学习的三个成功案例:(1) 停止生成有害回复(请将内容改写为中文,不需要出现原始句子);这与RLHF情境相似,区别是本方法的目标是生成无害回复,而不是有益回复。当只有负样本时,这是能期望的最好结果。(2) 在使用侵权数据训练后,LLM成功删除了数据,并考虑到成本因素不能重新训练LLM;(3) LLM成功忘记了"幻觉"
请将内容改写为中文,不需要出现原始句子
方法
在微调步骤t中,LLM的更新如下:
第一项损失为梯度上升(graident descent),目的为忘记有害样本:
为有害提示 (prompt),
为对应的有害回复。整体损失反向提升了有害样本的损失,即让 LLM “遗忘” 有害样本。
第二项损失是针对随机误配的,它要求LLM在有害提示的情况下预测出无关回复。这类似于分类中的标签平滑(label smoothing [2])。其目的是让LLM更好地遗忘有害提示上的有害输出。同时,实验证明这种方法可以提高LLM在正常情况下的输出性能
第三项损失为在正常任务上维持性能:
同 RLHF 类似,在预训练 LLM 上计算 KL 散度能更好保持 LLM 性能。
此外,所有的梯度上升和下降都只在输出(y)部分做,而不是像 RLHF 在提示 - 输出对(x, y)上。
应用场景:忘却有害内容等
本文用 PKU-SafeRLHF 数据作为遗忘数据,TruthfulQA 作为正常数据,图二的内容需要进行改写显示了遗忘学习后 LLM 在忘却的有害提示上输出的有害率。文中使用的方法为 GA(梯度上升和 GA+Mismatch:梯度上升 + 随机误配)。遗忘学习后的有害率接近于零。
图二的内容需要进行改写
第三张图显示了有害提示(不被遗忘)的输出结果,这是之前未曾见过的。即使是在没有被遗忘的有害提示上,LLM 的有害率也接近于零,这证明LLM遗忘的不仅仅是具体的样本,而是泛化到了包含有害概念的内容
图三
LLM 在正常样本上的性能和忘却前保持类似,同时具有以下特点
表一展示了生成的样本。可以看到在有害提示下,LLM 生成的样本都是无意义字符串,即无害输出。
表一
在其他场景中,比如忘却侵权内容和忘却幻觉,该方法的应用原文进行了详细的描述
RLHF 比较
需要改写的内容是:第二张表格展示了该方法和RLHF的比较,其中RLHF使用了正例,而遗忘学习方法只使用了负例,因此一开始该方法处于劣势。但即便如此,遗忘学习仍能达到与RLHF相似的对齐性能
需要改写的内容是:第二张表格
需要重写的内容:第四张图片显示了计算时间的比较,本方法只需 RLHF 2% 的计算时间。
需要重写的内容:第四张图片
即使只有负样本,使用遗忘学习的方法也可以获得与 RLHF 相当的无害率,并且只需使用 2% 的计算能力。因此,如果目标是停止输出有害内容,相比于 RLHF,遗忘学习的效率更高
结论
这项研究首次探索了LLM上的遗忘学习。研究结果显示,遗忘学习是一种有希望的对齐方法,尤其是在从业者资源不足的情况下。论文展示了三种情况:遗忘学习可以成功删除有害回复、删除侵权内容和消除错觉。研究表明,即使只有负样本,遗忘学习仍然可以在仅使用RLHF计算时间的2%情况下,获得与RLHF相似的对齐效果
以上是RLHF 2%的算力应用于消除LLM有害输出,字节发布遗忘学习技术的详细内容。更多信息请关注PHP中文网其他相关文章!

人工智能代理:革新社交媒体内容的节制和策展 社交媒体平台上用户生成的内容的爆炸需要复杂的内容适度和策划。 单独的人类主持人无法处理纯粹的电力

探索为NASA太空任务提供动力的编程语言 想象一下,跨太阳系跨太阳系的复杂代码引导航天器或实现突破性的火星任务。 在NASA,推动这些成就的软件并不普通。它是

生成AI正在弥合编码和非技术用户之间的差距。 诸如AI的LlamaCoder之类的工具让用户可以通过简单的提示来构建应用程序,从而最大程度地减少了对广泛的编码知识的需求。本文展示了建造

介绍 检索增强发电(RAG)管道正在改善AI系统与自定义数据的交互方式,但是我们将重点关注的两个关键组件:内存和混合搜索。在本文中,我们将探索

Google的TimesFM:革命性的预算时序列模型 Google Research已揭露了TimesFM,这是一种针对单变量时间序列预测的开创性预处理的基础模型。 这种创新的模型简化了通常复杂的Pro

高维矢量搜索:掌握高级索引技术 在当今的数据驱动世界中,高维矢量对于推荐系统,图像识别,自然语言处理(NLP)和异常等应用至关重要

Openai的剪辑(对比语言 - 图像预训练)模型,特别是剪辑VIT-L14变体,代表了多模式学习和自然语言处理的重大进步。 这个强大的计算机视觉系统在represe上表现出色

利用AI代理的功能使用Wordware:无需轻松AI代理创建的无代码平台。 人工智能代理人正在彻底改变我们与计算机互动,自动化任务和简化决策的方式。 该博客演示了如何构建


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

Dreamweaver Mac版
视觉化网页开发工具

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

WebStorm Mac版
好用的JavaScript开发工具

适用于 Eclipse 的 SAP NetWeaver 服务器适配器
将Eclipse与SAP NetWeaver应用服务器集成。

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)