大型语言模型(LLM 或LM)最初用于生成语言,但随着时间的推移,它们已经能够生成多种模态的内容,并在音频、语音、代码生成、医疗应用、机器人学等领域开始占据主导地位
当然,LM 也能生成图像和视频。在此过程中,图像像素会被视觉 tokenizer 映射为一系列离散的 token。然后,这些 token 被送入 LM transformer,就像词汇一样被用于生成建模。尽管 LM 在视觉生成方面取得了显着进步,但 LM 的表现仍然不如扩散模型。例如,在图像生成的金标基准 —ImageNet 数据集上进行评估时,最佳语言模型的表现比扩散模型差了 48% 之多(以 256ˆ256 分辨率生成图像时,FID 为 3.41 对 1.79)。
为什么语言模型在视觉生成方面落后于扩散模型?来自谷歌、CMU 的研究者认为,主要原因是缺乏一个良好的视觉表示,类似于我们的自然语言系统,以有效地建模视觉世界。为了证实这一假设,他们进行了一项研究。
论文链接:https://arxiv.org/pdf/2310.05737.pdf
这项研究表明,在相同的训练数据、可比模型大小和训练预算条件下,利用良好的视觉tokenizer,掩码语言模型在图像和视频基准的生成保真度和效率方面都超过了SOTA 扩散模型。这是语言模型在标志性的 ImageNet 基准上击败扩散模型的首个证据。
需要强调的是,研究者的目的不是断言语言模型是否优于其他模型,而是促进 LLM 视觉 tokenization 方法的探索。 LLM 与其他模型(如扩散模型)的根本区别在于,LLM 使用离散的潜在格式,即从可视化 tokenizer 获得的 token。这项研究表明,这些离散的视觉 token 的价值不应该被忽视,因为它们存在以下优势:
1、与 LLM 的兼容性。 token 表示的主要优点是它与语言token 共享相同的形式,从而可以直接利用社区多年来为开发LLM 所做的优化,包括更快的训练和推理速度、模型基础设施的进步、扩展模型的方法以及GPU/TPU 优化等创新。通过相同的 token 空间统一视觉和语言可以为真正的多模态 LLM 奠定基础,后者可以在我们的视觉环境中理解、生成和推理。
2、压缩表示。离散 token 可以为视频压缩提供一个新的视角。可视化 token 可以作为一种新的视频压缩格式,以减少数据在互联网传输过程中占用的磁盘存储和带宽。与压缩的 RGB 像素不同,这些 token 可以直接输入生成模型,绕过传统的解压缩和潜在编码步骤。这可以加快生成视频应用的处理速度,在边缘计算情况下尤其有益。
3、视觉理解优势。以前的研究表明,在自监督表示学习中,将离散的标记作为预训练目标是有价值的,就像BEiT和BEVT中所讨论的那样。此外,研究发现,将标记用作模型输入可以提高其鲁棒性和泛化性能
在这篇论文中,研究者提出了一个名为MAGVIT-v2的视频分词器,旨在将视频(和图像)转化为紧凑的离散标记
该内容的重写如下:该模型是基于VQ-VAE框架内的SOTA视频tokenizer——MAGVIT进行的改进。研究人员提出了两种新技术:1)一种创新的无查找(lookup-free)量化方法,使得可以学习大量词汇,从而提高语言模型的生成质量;2)通过广泛的实证分析,他们确定了对MAGVIT的修改方案,不仅提升了生成质量,还允许使用共享词汇表对图像和视频进行token化
实验结果显示,新模型在三个关键领域优于之前表现最好的视频分词器——MAGVIT。首先,新模型显着提高了MAGVIT的生成质量,在常见的图像和视频基准上刷新了最佳结果。其次,用户研究表明,它的压缩质量超过了MAGVIT和当前的视频压缩标准HEVC。此外,它与下一代视频编解码器VVC相当。最后,研究者表明,与MAGVIT相比,他们的新的分词在两个设置和三个数据集的视频理解任务中表现更强
本文引入了一种新的视频 tokenizer,旨在将视觉场景中的时间 - 空间动态映射为适合语言模型的紧凑离散 token。此外,该方法建立在 MAGVIT 的基础上。
随后,该研究重点介绍了两种新颖的设计:无查找量化(Lookup-Free Quantization ,LFQ)和 tokenizer 模型的增强功能。
无查找量化
近期,VQ-VAE模型取得了巨大的进展,但是该方法存在一个问题,即重建质量的改进与后续生成质量之间的关系不明确。许多人错误地认为改进重建就等同于改进语言模型的生成,例如,扩大词汇量可以提高重建质量。然而,这种改进只适用于词汇量较小的生成,而当词汇量非常大时,会损害语言模型的性能
本文将 VQ-VAE codebook 嵌入维度缩减到 0 ,即 Codebook 被替换为一个整数集,其中。
与 VQ-VAE 模型不同的是,这种新设计完全消除了对嵌入查找的需要,因此将其称为 LFQ。本文发现 LFQ 可以通过增加词汇量,提高语言模型的生成质量。如图 1 中的蓝色曲线所示,随着词汇量的增加,重建和生成都不断改进 —— 这是当前 VQ-VAE 方法中未观察到的特性。
到目前为止,可用的 LFQ 方法很多,但本文讨论了一种简单的变体。具体来说,LFQ 的潜在空间被分解为单维变量的笛卡尔积,即 。假定给定一个特征向量,量化表示 q (z) 的每个维度从以下获得:
关于LFQ,q(z)的令牌索引为:
除此以外,本文在训练过程中还增加了熵惩罚:
为了构建联合图像-视频分词器,需要进行重新设计。研究发现,与空间变换器相比,3D CNN的性能更优
本文探索了两种可行的设计方案,如图 2b 将 C-ViViT 与 MAGVIT 进行结合;图 2c 使用时间因果 3D 卷积来代替常规 3D CNN。
表 5a 对图 2 中的设计进行了经验比较,发现因果 3D CNN 表现最好。
本文在提高MAGVIT性能方面进行了其他架构的修改。除了使用因果3D CNN层外,本文还将编码器下采样器从平均池化改为跨步卷积,并在解码器中每个分辨率的残差块之前添加了一个自适应组归一化层等
本文通过三个部分的实验验证了所提出的分词器的性能:视频和图像生成、视频压缩和动作识别。图3直观地比较了分词器与先前研究结果的对比
视频生成。表 1 显示了本文模型在两个基准测试中都超越了所有现有技术,证明了良好的视觉 tokenizer 在使 LM 生成高质量视频方面发挥着重要作用。
以下是对图 4 的定性样本的描述
通过对MAGVIT-v2的图像生成结果进行评估,本研究在标准的ImageNet类条件设置下发现,我们的模型在采样质量(ID和IS)以及推理时间效率(采样步骤)方面都超过了最佳扩散模型的表现
图 5 为可视化结果。
视频压缩。结果如表 3 所示,本文模型在所有指标上都优于 MAGVIT,并且在 LPIPS 上优于所有方法。
根据表4所示,MAGVIT-v2在这些评估中表现优于之前最好的MAGVIT
以上是在图像、视频生成上,语言模型首次击败扩散模型,tokenizer是关键的详细内容。更多信息请关注PHP中文网其他相关文章!