首页 >科技周边 >人工智能 >文本图片编辑新范式,单个模型实现多文本引导图像编辑

文本图片编辑新范式,单个模型实现多文本引导图像编辑

WBOY
WBOY转载
2023-04-10 19:41:021209浏览

论文简要概述

利用文本对图像进行编辑的相关研究非常火热,最近许多研究都基于去噪扩散模型来提升效果而少有学者继续关注 GAN 的相关研究。本文基于经典的 StyleGAN 和 CLIP 并提出语义调制模块,从而对不同的文本仅需要单个模型就可以进行文本 - 图像编辑。

本文首先利用已有的编码器将需要编辑的图像转换到 StyleGAN 的 W^+ 语义空间中的潜在编码 w,再通过提出的语义调制模块对该隐编码进行自适应的调制。该语义调制模块包括语义对齐和语义注入模块,首先通过注意力机制对齐文本编码和 GAN 的隐编码之间的语义,再将文本信息注入到对齐后的隐编码中,从而保证该隐编码拥有文本信息从而达到利用文本编辑图像能力。

不同于经典的 StyleCLIP 模型,我们的模型无需对每个文本单独训练一个模型,一个模型就可以响应多个文本从而对图像做有效的编辑,所以我们的模型成为 FFCLIP-Free Form Text-Driven Image Manipulation。同时我们的模型在经典的教堂,人脸以及汽车数据集上都取得了非常不错的效果。

图片

  • 论文地址:https://arxiv.org/pdf/2210.07883.pdf
  • Github 地址:https://github.com/KumapowerLIU/FFCLIP

背景和启示

最近,描述用户意图的自由文本提示已被用于编辑 StyleGAN 潜在空间以进行图像编辑操作 [1、2]。一句话(例如,‘Blue’)或短语(例如,‘Man aged 10’)作为输入,这些方法通过调制 StyleGAN 潜在空间中的潜在编码来相应地编辑所描述的图像属性。

精确的文本 - 图像编辑依赖于 StyleGAN 的视觉语义空间与 CLIP 的文本语义空间之间的精确潜在映射。比如当文本提示是 “惊喜”,我们首先在视觉语义空间中识别其相关的语义子空间(即 “表情”,因为惊喜属于表情这个属性)。找到与文本相对应的语义子空间后,文本会告诉我们隐编码的变化方向,从让隐编码从当前的表情变化到惊喜的表情。TediGAN [1] 和 StyleCLIP [2] 等开创性研究凭经验预先定义了哪个潜在视觉子空间对应于目标文本提示嵌入(即 TediGAN 中的特定属性选择和 StyleCLIP 中的分组映射)。这种经验识别限制了给定一个文本提示,他们必须训练相应的编辑模型。 

不同的文本提示需要不同的模型来调制 StyleGAN 的潜在视觉子空间中的潜在代码。虽然 StyleCLIP 中的全局方向方法没有采用这样的过程,但参数调整和编辑方向是手动预定义的。为此,我们有理由来探索如何通过显性的文本自动的找到隐性的视觉语义子空间,从而达到单个模型就可以应对多个文本。

在这篇论文中,我们提出了 FFCLIP-Free Form CLIP,它可以针对不同的文本自动找到相对应视觉子空间。FFCLIP 由几个语义调制模块组成,这些语义调制模块把 StyleGAN 潜在空间 W^+ 中的潜在编码 w^+ 和文本编码 e 作为输入。

语义调制模块由一个语义对齐模块和一个语义注入模块组成。语义对齐模块将文本编码 e 作为 query,将潜在编码 w 作为 key 和 Value。然后我们分别在 position 和 channel 维度上计算交叉注意力,从而得到两个注意力图。接着我们使用线性变换将当前的视觉空间转换到与文本对应的子空间,其中线性变换参数(即平移和缩放参数)是基于这两个注意力图计算的。通过这种对齐方式,我们可以自动的为每个文本找到相应的视觉子空间。最后,语义注入模块 [3] 通过之后的另一个线性变换修改子空间中的潜在代码。

从 FFCLIP 的角度来看,[1, 2] 中子空间经验选择是我们在语义对齐模块中线性变换的一种特殊形式。他们的组选择操作类似于我们的缩放参数的二进制值,以指示 w 的每个位置维度的用法。另一方面,我们观察到 W^+ 空间的语义仍然存在纠缠的现象,经验设计无法找到 StyleGAN 的潜在空间和 CLIP 的文本语义空间之间的精确映射。相反,我们的语义对齐模块中的缩放参数自适应地修改潜在代码 w 以映射不同的文本提示嵌入。然后通过我们的平移参数进一步改进对齐方式。我们在基准数据集上评估我们的方法,并将 FFCLIP 与最先进的方法进行比较。结果表明,FFCLIP 在传达用户意图的同时能够生成更加合理的内容。

FFCLIP

图 1 所展示的就是我们的整体框架。FFCLIP 首先通过预训练好的 GAN inversion 编码器和文本编码器得到图像和文本的潜在编码,其中图像的潜在编码则是之前提到的 StyleGAN 视觉语义空间 W^+ 中的 w, 而文本编码则是 e_t。我们和 StyleCLIP 一样采用 e4e GAN inversion 编码器 [4] 和 CLIP 中的文本编码器来分别得到相应的潜在编码。接着我们将 e_t 和 w 作为调制模块的输入并输出得到 w 的偏移量∆w,最后将 ∆w 与原始的 w 相加并放入预训练好的 StyleGAN 中得到相应的结果。

图片

图 1:整体框架图

下图二就是我们的语义调制模块。在语义对齐模块中(Semantic  Alignment),我们可以清晰地看到我们将 ∆w 设置为 Key 和 Value 并将 e_t 设置为 Query 来计算两个注意力图,这两个注意力图的大小分别是 18×1 以及 512×512。接着我们将 18×1 的注意力图当作线性变换中缩放系数 S,我们计算该注意力图的过程如下:

图片

同时我们将 512×512 的注意力图与 Value 相乘以后再经过 Pooling 操作得到显性变换中的平移系数 T。我们计算该注意力图的过程如下:

图片

拥有了平移和缩放系数后,我们就可以通过线性变换为当前文本 e_t 找到相对应的视觉子空间,计算步骤如下:

图片

期中 x_i 是我们第 i 个语义调制模块的输出结果。由于 ∆w 的大小是 18×512,所以 18×1 和 512×512 的注意力图分别是在∆w 的 position 和 channel 两个维度上进行注意力图的计算,这个操作类似于 Dual Attention [5].

图片

图 2:语义调制模块

我们通过以上的操作可以得到与文本对应的视觉子空间,紧接着我们采用类似 AdaIN 的方式,将文本信息注入到这个空间中,从而得到最后的结果,我们称这个操作为语义注入模块(Semantic Injection)。整个模块的实现步骤如下:

图片

最终我们的 FFCLIP 中一共堆叠了 4 个语义调制模块,并最终得到最后的偏移量∆w。

实验结果

图片

图 3:视觉对比图

如图 3 所示,我们与 StyleCLIP [1],TediGAN [2] 以及 HairCLIP [3] 进行了视觉上的对比:可以看到 FFCLIP 能够更好的反应文本的语义,并且生成更加真实的编辑图像。同时相对应的数值对比结果如下表所示,我们的方法无论是在客观数值还是在主观数值上都能取得最好的效果。

图片

表 1:数值对比

同时我们的方法还展现出了非好的鲁棒性,FFCLIP 在训练中并未见过词的组合而是用单个的单词进行训练,但是在测试中能够很好的针对词组的语义对图像进行编辑,视觉效果如图 4 所示。

图片

图 4:词组编辑

更多的实验结果和消融实验请看原文。

总结

我们在本文中提出了 FFCLIP,一种可以针对不同文本但只需要单个模型就能进行有效图像编辑的新方法。本文动机是现有方法是根据已有的经验来匹配当前文本和 GAN 的语义子空间,因此一个编辑模型只能处理一个文本提示。我们通过对齐和注入的语义调制来改进潜在映射。它有利于一个编辑模型来处理多个文本提示。多个数据集的实验表明我们的 FFCLIP 有效地产生语义相关和视觉逼真的结果。

以上是文本图片编辑新范式,单个模型实现多文本引导图像编辑的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除