了解当代大型语言模型背后的设计、约束和演变,你可以遵循本文的阅读清单。
大型语言模型已经引起了公众的注意,短短五年内,Transforme等模型几乎完全改变了自然语言处理领域。此外,它们还开始在计算机视觉和计算生物学等领域引发革命。
鉴于Transformers对每个人的研究进程都有如此大的影响,本文将为大家介绍一个简短的阅读清单,供机器学习研究人员和从业者入门使用。
下面的列表主要是按时间顺序展开的,主要是一些学术研究论文。当然,还有许多其他有用的资源。例如:
- Jay Alammar撰写的《The Illustrated Transformer》
- Lilian Weng撰写的《The Transformer Family》
- Xavier Amatriain撰写的《Transformer models: an introduction and catalog — 2023 Edition》
- Andrej Karpathy写的nanoGPT库
对主要架构和任务的理解
如果你是Transformers、大型语言模型新手,那么这几篇文章最适合你。
论文1:《Neural Machine Translation by Jointly Learning to Align and Translate》
论文地址:https://arxiv.org/pdf/1409.0473.pdf
本文引入了一种循环神经网络(RNN)注意力机制,提高了模型远程序列建模能力。这使得RNN能够更准确地翻译较长的句子——这也是后来开发原始Transformer架构的动机。
图源: https://arxiv.org/abs/1409.0473
论文2:《Attention Is All You Need》
论文地址:https://arxiv.org/abs/1706.03762
本文介绍了由编码器和解码器组成的原始Transformer架构,这些部分将在以后作为单独模块进行相关介绍。此外,本文还介绍了缩放点积注意力机制、多头注意力块和位置输入编码等概念,这些概念仍然是现代Transformer的基础。
图源:https://arxiv.org/abs/1706.03762
论文3:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》
论文地址:https://arxiv.org/abs/1810.04805
大型语言模型研究遵循最初的Transformer架构,然后开始向两个方向延伸:用于预测建模任务(如文本分类)的Transformer和用于生成建模任务(如翻译、摘要和其他形式的文本创建)的Transformer 。
BERT论文介绍了掩码语言建模原始概念,如果你对这个研究分支感兴趣,那么可以跟进RoBERTa,其简化了预训练目标。
图源:https://arxiv.org/abs/1810.04805
论文4:《Improving Language Understanding by Generative Pre-Training》
论文地址:https://www.semanticscholar.org/paper/Improving-Language-Understanding-by-Generative-Radford-Narasimhan/cd18800a0fe0b668a1cc19f2ec95b5003d0a5035
最初的GPT论文介绍了流行的解码器风格的架构和通过下一个单词预测进行预训练。BERT由于其掩码语言模型预训练目标,可以被认为是一个双向Transformer,而GPT是一个单向自回归模型。虽然GPT嵌入也可以用于分类,但GPT方法是当今最有影响力的LLMs(如ChatGPT)的核心。
如果你对这个研究分支感兴趣,那么可以跟进GPT-2和GPT-3的论文。此外,本文将在后面单独介绍InstructGPT方法。
论文5:《BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension》
论文地址 https://arxiv.org/abs/1910.13461.
如上所述, BERT型编码器风格的LLM通常是预测建模任务的首选,而GPT型解码器风格的LLM更擅长生成文本。为了两全其美,上面的BART论文结合了编码器和解码器部分。
扩展定律与效率提升
如果你想了解更多关于提高Transformer效率的技术,可以参考以下论文
- 论文1:《A Survey on Efficient Training of Transformers》
- 论文地址:https://arxiv.org/abs/2302.01107
- 论文2:《FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness》
- 论文地址:https://arxiv.org/abs/2205.14135
- 论文3:《Cramming: Training a Language Model on a Single GPU in One Day》
- 论文地址:https://arxiv.org/abs/2212.14034
- 论文4:《Training Compute-Optimal Large Language Models》
- 论文地址:https://arxiv.org/abs/2203.15556
此外,还有论文《Training Compute-Optimal Large Language Models》
论文地址:https://arxiv.org/abs/2203.15556
本文介绍了700亿参数的Chinchilla模型,该模型在生成建模任务上优于流行的1750亿参数的GPT-3模型。然而,它的主要点睛之处在于,当代大型语言模型训练严重不足。
本文定义了用于大型语言模型训练的线性scaling law。例如,虽然Chinchilla的大小只有GPT-3的一半,但它的表现优于GPT-3,因为它是在1.4万亿(而不是3000亿)token上进行训练的。换句话说,训练token的数量和模型大小一样重要。
对齐——将大型语言模型朝着预期的目标和兴趣引导
近年来出现了许多相对强大的大型语言模型,它们可以生成真实的文本(例如GPT-3和Chinchilla)。就常用的预训练范式而言,目前似乎已经达到了一个上限。
为了使语言模型更能帮助到人类,减少错误信息和不良语言,研究人员设计了额外的训练范式来微调预训练的基础模型,包括如下论文。
- 论文1:《Training Language Models to Follow Instructions with Human Feedback》
- 论文地址:https://arxiv.org/abs/2203.02155
在这篇所谓的InstructGPT论文中,研究人员使用了RLHF(Reinforcement Learning from Human Feedback)。他们从预训练的GPT-3基础模型开始,并使用监督学习对人类生成的提示响应对进行进一步微调(步骤1)。接下来,他们要求人类对模型输出进行排序以训练奖励模型(步骤2)。最后,他们使用奖励模型通过近端策略优化(步骤3)使用强化学习来更新预训练和微调的GPT-3模型。
顺便说一句,这篇论文也被称为描述ChatGPT背后思想的论文——根据最近的传言,ChatGPT是InstructGPT的扩展版本,它在更大的数据集上进行了微调。
- 论文2:《Constitutional AI: Harmlessness from AI Feedback》
- 论文地址:https://arxiv.org/abs/2212.08073
在这篇论文中,研究人员进一步推进了对齐的想法,提出了一种创建「harmless」的AI系统的训练机制。研究人员提出了一种基于规则列表(由人类提供)的自训练机制,而不是直接由人类监督。与上面提到的InstructGPT论文类似,所提出的方法使用了强化学习方法。
总结
本文对上方表单的排列尽量保持简洁美观,建议重点关注前10篇论文,以了解当代大型语言模型背后的设计、局限和演变。
如果想深入阅读,建议参考上述论文中的参考文献。或者,这里有一些额外的资源,供读者进一步研究:
GPT的开源替代方案
- 论文1:《BLOOM: A 176B-Parameter Open-Access Multilingual Language Model》
- 论文地址:https://arxiv.org/abs/2211.05100
- 论文2:《OPT: Open Pre-trained Transformer Language Models》
- 论文地址:https://arxiv.org/abs/2205.01068
ChatGPT的替代方案
- 论文1《LaMDA: Language Models for Dialog Applications》
- 论文地址:https://arxiv.org/abs/2201.08239
- 论文2:《Improving alignment of dialogue agents via targeted human judgements》
- 论文地址:https://arxiv.org/abs/2209.14375
- 论文3:《BlenderBot 3: a deployed conversational agent that continually learns to responsibly engage》
- 论文地址:https://arxiv.org/abs/2208.03188
计算生物学中的大型语言模型
- 论文1:《 ProtTrans: Towards Cracking the Language of Life’s Code Through Self-Supervised Learning 》
- 论文地址:https://arxiv.org/abs/2007.06225
- 论文2:《Highly accurate protein structure prediction with AlphaFold》
- 论文地址:https://www.nature.com/articles/s41586-021-03819-2
- 论文3:《Large Language Models Generate Functional Protein Sequences Across Diverse Families》
- 论文地址:https://www.nature.com/articles/s41587-022-01618-2
以上是全面了解大语言模型,这有一份阅读清单的详细内容。更多信息请关注PHP中文网其他相关文章!

轻松在家运行大型语言模型:LM Studio 使用指南 近年来,软件和硬件的进步使得在个人电脑上运行大型语言模型 (LLM) 成为可能。LM Studio 就是一个让这一过程变得轻松便捷的优秀工具。本文将深入探讨如何使用 LM Studio 在本地运行 LLM,涵盖关键步骤、潜在挑战以及在本地拥有 LLM 的优势。无论您是技术爱好者还是对最新 AI 技术感到好奇,本指南都将提供宝贵的见解和实用技巧。让我们开始吧! 概述 了解在本地运行 LLM 的基本要求。 在您的电脑上设置 LM Studi

盖伊·佩里(Guy Peri)是麦考密克(McCormick)的首席信息和数字官。尽管他的角色仅七个月,但Peri正在迅速促进公司数字能力的全面转变。他的职业生涯专注于数据和分析信息

介绍 人工智能(AI)不仅要理解单词,而且要理解情感,从而以人的触感做出反应。 这种复杂的互动对于AI和自然语言处理的快速前进的领域至关重要。 Th

介绍 在当今以数据为中心的世界中,利用先进的AI技术对于寻求竞争优势和提高效率的企业至关重要。 一系列强大的工具使数据科学家,分析师和开发人员都能构建,Depl

本周的AI景观爆炸了,来自Openai,Mistral AI,Nvidia,Deepseek和Hugging Face等行业巨头的开创性发行。 这些新型号有望提高功率,负担能力和可访问性,这在TR的进步中推动了

但是,该公司的Android应用不仅提供搜索功能,而且还充当AI助手,并充满了许多安全问题,可以将其用户暴露于数据盗用,帐户收购和恶意攻击中

您可以查看会议和贸易展览中正在发生的事情。您可以询问工程师在做什么,或咨询首席执行官。 您看的任何地方,事情都以惊人的速度发生变化。 工程师和非工程师 有什么区别

模拟火箭发射的火箭发射:综合指南 本文指导您使用强大的Python库Rocketpy模拟高功率火箭发射。 我们将介绍从定义火箭组件到分析模拟的所有内容


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

PhpStorm Mac 版本
最新(2018.2.1 )专业的PHP集成开发工具

禅工作室 13.0.1
功能强大的PHP集成开发环境

WebStorm Mac版
好用的JavaScript开发工具

螳螂BT
Mantis是一个易于部署的基于Web的缺陷跟踪工具,用于帮助产品缺陷跟踪。它需要PHP、MySQL和一个Web服务器。请查看我们的演示和托管服务。