Stability AI 的大模型家族来了一位新成员。
昨日,Stability AI 继推出文生图 Stable Diffusion、文生视频 Stable Video Diffusion 之后,又为社区带来了 3D 视频生成大模型「Stable Video 3D」(简称 SV3D)。
该模型是基于 Stable Video Diffusion 构建的,其主要优势在于显著提升了3D生成的质量和多视角一致性。相较于之前的Stability AI推出的Stable Zero123以及联合开源的Zero123-XL,该模型的效果更为出色。
目前,Stable Video 3D 既支持商用,需要加入 Stability AI 会员(Membership);也支持非商用,用户在 Hugging Face 上下载模型权重即可。
Stability AI 提供了两个模型变体,分别是 SV3D_u 和 SV3D_p。SV3D_u 基于单个图像输入,无需进行相机调整即可生成轨道视频;而 SV3D_p 则进一步扩展了生成能力,通过适配单个图像和轨道视角,允许用户沿指定的相机路径创建 3D 视频。
目前,Stable Video 3D 的研究论文已经放出,核心作者有三位。
Stable Video 3D 在 3D 生成领域实现重大进步,尤其是在新颖视图生成(novel view synthesis,NVS)方面。
以往的方法通常倾向于解决有限视角和输入不一致的问题,而 Stable Video 3D 能够从任何给定角度提供连贯视图,并能够很好地泛化。因此,该模型不仅增加了姿势可控性,还能确保多个视图中对象外观的一致性,进一步改进了影响真实和准确 3D 生成的关键问题。
如下图所示,与 Stable Zero123、Zero-XL 相比,Stable Video 3D 能够生成细节更强、更忠实于输入图像和多视角更一致的新颖多视图。
此外,Stable Video 3D 利用其多视角一致性来优化 3D 神经辐射场(Neural Radiance Fields,NeRF),以提高直接从新视图生成 3D 网格的质量。
為此,Stability AI 設計了遮罩分數蒸餾取樣損失,進一步增強了預測視圖中未見過區域的 3D 品質。同時為了減輕烘焙照明問題,Stable Video 3D 採用了與 3D 形狀和紋理共同優化的解耦照明模型。
下圖為使用 Stable Video 3D 模型及其輸出時,透過 3D 最佳化改進後的 3D 網格產生範例。
下圖為使用 Stable Video 3D 產生的 3D 網格結果與 EscherNet、Stable Zero123 的產生結果比較。
#架構細節
#Stable Video 3D 模型的架構如下圖2所示,它是基於Stable Video Diffusion 架構建構而成,包含一個具有多個層的UNet,其中每一層又包含一個帶有Conv3D 層的殘差塊序列,以及兩個帶有註意力層(空間和時間)的transformer 區塊。
具體流程如下所示:
(i) 刪除「fps id」和「motion bucket id」的向量條件,原因是它們與Stable Video 3D 無關;
(ii) 條件圖像透過Stable Video Diffusion 的VAE 編碼器嵌入到潛在空間,然後在通往UNet 的雜訊時間步t 處連接到雜訊潛在狀態輸入zt;
(iii) 條件影像的CLIPembedding 矩陣被提供給每個transformer 區塊的交叉注意力層來充當鍵和值,而查詢成為對應層的特徵;
(iv) 相機軌跡沿著擴散雜訊時間步被饋入到殘差區塊中。相機姿勢角度ei 和ai 以及噪聲時間步t 首先被嵌入到正弦位置嵌入中,然後將相機姿勢嵌入連接在一起進行線性變換並添加到噪聲時間步嵌入中,最後被饋入到每個殘差塊並被加入到該區塊的輸入特徵中。
此外,Stability AI 設計了靜態軌道和動態軌道來研究相機姿勢調整的影響,如下圖 3 所示。
在靜態軌道上,相機採用與條件影像相同的仰角,以等距方位角圍繞物件旋轉。這樣做的缺點是基於調整的仰角,可能無法獲得關於物件頂部或底部的任何資訊。而在動態軌道上,方位角可以不等距,每個視圖的仰角也可以不同。
為了建立動態軌道,Stability AI 對靜態軌道取樣,向方位角添加小的隨機噪聲,並向其仰角添加不同頻率的正弦曲線的隨機加權組合。這樣做提供了時間平滑性,並確保相機軌跡沿著與條件影像相同的方位角和仰角循環結束。
Stability AI 在未見過的GSO 和OmniObject3D 資料集上,評估了靜態和動態軌道上的Stable Video 3D 合成多視圖效果。結果如下表 1 至表 4 所示,Stable Video 3D 在新穎多視圖合成方面實現了 SOTA 效果。
表1 和表3 顯示了Stable Video 3D 與其他模型在靜態軌道的結果,顯示了即使是無姿勢調整的模型SV3D_u,也比所有先前的方法表現得更好。
消融分析結果表明,SV3D_c 和 SV3D_p 在靜態軌道的生成方面優於 SV3D_u,儘管後者專門在靜態軌道上進行了訓練。
下表2 和表4 展示了動態軌道的產生結果,包括姿勢調整模型SV3D_c 和SV3D_p,後者在所有指標上實現了SOTA。
下圖6 中的視覺比較結果進一步表明,與以往工作相比,Stable Video 3D產生的影像細節更強、更忠於條件影像、多視角更加一致。
更多技術細節和實驗結果請參考原始論文。
以上是Stable Video 3D震撼登場:單圖生成無死角3D影片、模型權重開放的詳細內容。更多資訊請關注PHP中文網其他相關文章!