以下是我在RWKV播客中的一些想法摘要:https://www.php.cn/link/9bde76f262285bb1eaeb7b40c758b53e
为什么替代方案的重要性如此突出?
随着2023年的人工智能革命,Transformer架构目前正处于巅峰。然而,由于人们急于采用成功的Transformer架构,所以会容易忽视可以借鉴的替代品。
作为工程师,我们不应该采取一刀切的方法,对每个问题都使用相同的解决方案。我们应该在每一个情况下权衡利弊;否则将会被困在特定平台的限制范围内,同时因不知道有其他选择而感到“满足”,这可能会使发展一夜回到解放前
这个问题并不是人工智能领域独有的,而是一种从古到今都在重复的历史模式。
SQL战争历史的一页,是关于数据库管理系统之间的竞争和对抗的故事。在这个故事中,各种数据库管理系统如Oracle、MySQL和SQL Server等,为了争夺市场份额和技术优势,展开了激烈的竞争。这些竞争不仅体现在性能和功能方面,还涉及到商业策略、市场推广以及用户满意度等多个方面。这些数据库管理系统不断地推出新的功能和改进,以吸引更多的用户和企业选择他们的产品。SQL战争历史的一页,见证了数据库管理系统行业的发展和变革,也为我们提供了宝贵的经验和教训
最近在软件开发中有一个值得注意的例子是,当SQL服务器开始受到物理限制时,就出现了NoSQL的趋势。世界各地的初创企业都因为"规模"的原因转向了NoSQL,尽管它们远未达到这些规模
然而,随着时间的推移,随着最终一致性和NoSQL管理开销的出现,以及硬件功能在SSD速度和容量方面的巨大飞跃,SQL服务器最近又出现了回归的趋势,因为它们使用简单性,并且现在90%以上的初创公司都有足够的可扩展性
SQL和NoSQL是两种不同的数据库技术。SQL是结构化查询语言的缩写,主要用于处理结构化数据。NoSQL则是指非关系型数据库,适用于处理非结构化或半结构化数据。 虽然有人认为SQL比NoSQL更好,或者反之亦然,但实际上这只是意味着每种技术都有自己的优缺点和适用场景。在某些情况下,SQL可能更适合处理复杂的关系型数据,而NoSQL则更适合处理大规模的非结构化数据。 然而,这并不意味着只能选择其中一种技术。实际上,许多应用程序和系统在实践中使用了SQL和NoSQL的混合解决方案。根据具体的需求和数据类型,可以选择最适合的技术来解决问题。 因此,重要的是理解每种技术的特点和适用场景,并根据具体情况做出明智的选择。无论是SQL还是NoSQL,都有其独特的学习点和首选用例,可以在类似技术中相互借鉴和交叉传播
目前Transformer架构最大的痛点是什么?
通常,这包括计算、上下文大小、数据集和对齐。在本次讨论中,我们将重点讨论计算和上下文长度:
- 由于使用/生成的每个令牌的O(N^2)增加而导致的二次计算成本。这使得大于10万的上下文大小非常昂贵,从而影响推理和训练。
- 当前的GPU短缺加剧了这个问题。
- 上下文大小限制了Attention机制,严重限制了“智能代理”用例(如smol-dev),并强制解决问题。较大的上下文需要较少的解决方法。
那么,我们该如何解决这个问题呢?
介绍RWKV:一种线性Transformer/现代大型RNN
RWKV和微软RetNet是被称为“线性Transformer”的新类别中的第一个
它通过支持以下内容直接解决了上述三个限制:
- 线性计算成本,与上下文大小无关。
- 在CPU(尤其是ARM)中,允许以更低的要求在RNN模式下输出合理的令牌/秒。
- 没有作为RNN的硬上下文大小限制。文档中的任何限制都是指导原则——您可以对其进行微调。
随着我们不断将人工智能模型扩大到100k及以上的上下文大小,二次方计算成本开始呈指数级增长。
然而,线性Transformer并没有放弃递归神经网络架构及解决其瓶颈,这迫使它们被取代。
不过,重新设计的RNN吸取了Transformer可扩展的经验教训,使RNN能与Transformer工作方式类似,并消除了这些瓶颈。
在训练速度方面,用Transformer让它们重返赛场——允许它们在O(N)成本下高效运行,同时在训练中扩展到10亿个参数以上,同时保持类似的性能水平。
图表:线性Transformer计算成本按每个令牌线性缩放与变换器的指数增长
当你将平方比例应用于线性缩放时,你会在2k令牌计数时获得10倍以上的增长,在100k令牌长度时获得100倍以上的增长
在14B参数下,RWKV是最大的开源线性Transformer,与GPT NeoX和其他类似数据集(如the Pile)不相上下。
RWKV模型的性能与类似规模的现有变压器模型相当,各种基准显示
但用更简单的话来说,这意味着什么?
优点
- 在较大的上下文大小中,推理/训练比Transformer便宜10倍甚至更多
- 在RNN模式下,可以在非常有限的硬件上缓慢运行
- 与相同数据集上的Transformer性能相似
- RNN没有技术上下文大小限制(无限上下文!)
缺点
- 滑动窗口问题,有损内存超过某一点
- 尚未证明可扩展到14B参数以上
- 不如变压器优化和采用
因此,尽管RWKV还没有达到LLaMA2那样的60B+参数规模,但只要有正确的支持和资源,它有可能以更低的成本和更广泛的环境来实现这一目标,特别是在模型趋向于更小、更高效的情况下
如果您的用例对效率很重要,请考虑这一点。然而,这并非最终解决方案——关键在于健康的替代品
我们应该考虑学习其他替代方案以及它们的好处
扩散模型:文本训练速度较慢,但对多时期训练具有极高的弹性。找出原因可以帮助缓解令牌危机。
生成对抗性网络/代理:可以在没有数据集的情况下,使用技术将所需的训练集训练到特定目标,即使是基于文本的模型。
原文标题:Introducing RWKV: The Rise of Linear Transformers and Exploring Alternatives,作者:picocreator
https://www.php.cn/link/b433da1b32b5ca96c0ba7fcb9edba97d
以上是介绍RWKV:线性Transformers的兴起和探索替代方案的详细内容。更多信息请关注PHP中文网其他相关文章!

用Microsoft Power BI图来利用数据可视化的功能 在当今数据驱动的世界中,有效地将复杂信息传达给非技术观众至关重要。 数据可视化桥接此差距,转换原始数据i

专家系统:深入研究AI的决策能力 想象一下,从医疗诊断到财务计划,都可以访问任何事情的专家建议。 这就是人工智能专家系统的力量。 这些系统模仿Pro

首先,很明显,这种情况正在迅速发生。各种公司都在谈论AI目前撰写的代码的比例,并且这些代码的比例正在迅速地增加。已经有很多工作流离失所

从数字营销到社交媒体的所有创意领域,电影业都站在技术十字路口。随着人工智能开始重塑视觉讲故事的各个方面并改变娱乐的景观

ISRO的免费AI/ML在线课程:通向地理空间技术创新的门户 印度太空研究组织(ISRO)通过其印度遥感研究所(IIR)为学生和专业人士提供了绝佳的机会

本地搜索算法:综合指南 规划大规模活动需要有效的工作量分布。 当传统方法失败时,本地搜索算法提供了强大的解决方案。 本文探讨了爬山和模拟

该版本包括三种不同的型号,GPT-4.1,GPT-4.1 MINI和GPT-4.1 NANO,标志着向大语言模型景观内的特定任务优化迈进。这些模型并未立即替换诸如

Chip Giant Nvidia周一表示,它将开始制造AI超级计算机(可以处理大量数据并运行复杂算法的机器),完全是在美国首次在美国境内。这一消息是在特朗普总统SI之后发布的


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

Atom编辑器mac版下载
最流行的的开源编辑器

PhpStorm Mac 版本
最新(2018.2.1 )专业的PHP集成开发工具

禅工作室 13.0.1
功能强大的PHP集成开发环境

WebStorm Mac版
好用的JavaScript开发工具

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)