搜索
首页科技周边人工智能几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D
AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文作者潘亮博士目前是上海人工智能实验室的Research Scientist。此前,在2020年至2023年,他于新加坡南洋理工大学S-Lab担任Research Fellow,指导老师为刘子纬教授。他的研究重点是计算机视觉、3D点云和虚拟人类,并在顶级会议和期刊上发表了多篇论文,谷歌学术引用超过2700次。此外,他还多次担任计算机视觉和机器学习等领域顶级会议和期刊的审稿人。

近期,商汤科技 - 南洋理工大学联合 AI 研究中心 S-Lab ,上海人工智能实验室,北京大学与密歇根大学联合提出 DreamGaussian4D(DG4D),通过结合空间变换的显式建模与静态 3D Gaussian Splatting(GS)技术实现高效四维内容生成。

四维内容生成近来取得了显著进展,但是现有方法存在优化时间长、运动控制能力差、细节质量低等问题。DG4D 提出了一个包含两个主要模块的整体框架:1)图像到 4D GS - 我们首先使用 DreamGaussianHD 生成静态 3D GS,接着基于 HexPlane 生成基于高斯形变的动态生成;2)视频到视频纹理细化 - 我们细化生成的 UV 空间纹理映射,并通过使用预训练的图像到视频扩散模型增强其时间一致性。

值得注意的是,DG4D 将四维内容生成的优化时间从几小时缩短到几分钟(如图 1 所示),允许视觉上控制生成的三维运动,并支持生成可以在三维引擎中真实渲染的动画网格模型。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

  • 论文名称: DreamGaussian4D: Generative 4D Gaussian Splatting

  • 主页地址: https://jiawei-ren.github.io/projects/dreamgaussian4d/ 

  • 论文地址: https://arxiv.org/abs/2312.17142  

  • Demo 地址: https://huggingface.co/spaces/jiawei011/dreamgaussian4d

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                   图 1. DG4D 在四分半钟内可实现四维内容优化基本收敛

问题和挑战

生成模型可以极大地简化多样化数字内容(如二维图像、视频和三维景物)的生产和制作,近年来取得了显著进步。四维内容是诸如游戏、影视等诸多下游任务的重要内容形式。四维生成内容也应支持导入传统图形学渲染引擎软件(比如,Blender 或者 Unreal Engine),以接入现有图形学内容生产管线(见图 2)。

尽管有一些研究致力于动态三维(即四维)生成,但四维景物的高效和高质量生成仍然存在挑战。近年来,越来越多的研究方法通过结合视频和三维生成模型,约束任意视角下内容外观和动作的一致性,以实现四维内容生成。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                   图 2. DG4D 生成的四维内容支持导入到传统计算机图形学渲染引擎中

目前主流的四维内容生成方法都基于四维动态神经辐射场(4D NeRF)表示。比如,MAV3D [1] 通过在 HexPlane [2] 上提炼文本到视频的扩散模型,实现了文本到四维内容的生成。Consistent4D [3] 引入了一个视频到四维的框架,以优化级联的 DyNeRF,从静态捕获的视频中生成四维景物。通过多重扩散模型的先验,Animate124 [4] 能够通过文本运动描述将单个未处理的二维图像动画化为三维的动态视频。基于混合 SDS [5] 技术,4D-fy [6] 使用多个预训练扩散模型可实现引人入胜的文本到四维内容的生成。

然而,所有上述现有方法 [1,3,4,6] 生成单个 4D NeRF 都需要数个小时,这极大地限制了它们的应用潜力。此外,它们都难以有效控制或选择最后生成的运动。以上不足主要来自以下几个因素:首先,前述方法的底层隐式四维表示不够高效,存在渲染速度慢和运动规律性差的问题;其次,视频 SDS 的随机性质增加了收敛难度,并在最终结果中引入了不稳定性和多种瑕疵伪影现象。

方法介绍

与直接优化 4D NeRF 的方法不同,DG4D 通过结合静态高斯泼溅技术和显式的空间变换建模,为四维内容生成构建了一个高效和强力的表征。此外,视频生成方法有潜力提供有价值的时空先验,增强高质量的 4D 生成。具体而言,我们提出了一个包含两个主要阶段的整体框架:1)图像到 4D GS 的生成;2)基于视频大模型的纹理图细化。

1. 图像到 4D GS 的生成

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                    图 3 图片到 4D GS 生成框架图

在这一阶段中,我们使用静态 3D GS 及其空间变形来表示动态的四维景物。基于一张给定的二维图片,我们使用增强方法 DreamGaussianHD 方法生成静态 3D GS。随后,通过在静态 3D GS 函数上优化时间依赖的变形场,估计各个时间戳处的高斯变形,旨在让变形后的每一帧的形状和纹理都与驱动视频里面的对应帧尽力保持吻合。这一阶段结束,将可以生成一段动态的三维网格模型序列。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                     图 4 DreamGaussianHD 初始化基于 3D GS 的三维物体模型

  • DreamGaussianHD 基于近来使用 3D GS 的图生三维物体方法 DreamGaussian [7],我们做了一些进一步的改进,整理出一套效果更佳的 3D GS 生成和初始化方法。主要改进的操作包括有 1)采取多视角的优化方式;2)设定优化过程中的渲染图片背景为更适合生成的黑色背景。我们称呼改进后的版本为 DreamGaussianHD,具体的改进效果图可见图 4。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                       图 5 HexPlane 表征动态形变场

  • Gaussian Deformation 基于生成的静态 3D GS 模型,我们通过预测每一帧中高斯核的变形来生成符合期望视频的动态 4D GS 模型。在动态效果的表征上,我们选用 HexPlane(如图 5 所示)来预测每一个时间戳下高斯核位移、旋转和比例尺度,从而驱动生成每一帧的动态模型。此外,我们也针对性地调整设计网络,尤其是对最后几个线性操作的网络层做了残差连接和零初始化的设计,从而可以平滑充分地基于静态 3D GS 模型初始化动态场(效果如图 6 所示)。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                     图 6 零初始化动态形变场对最后生成效果的影响

2. 视频到视频的纹理优化

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                         图 7 视频到视频纹理优化框架图

类似于 DreamGaussian,在第一阶段基于 4D GS 的四维动态模型生成结束后,可以提取四维的网格模型序列。并且,我们也可以类似于 DreamGaussian 的做法,在网格模型的 UV 空间中对纹理做进一步的优化。不同于 DreamGaussian 只对单独的三维网格模型使用图片生成模型做纹理的优化,我们需要对整个三维网格序列做优化。

并且,我们发现如果沿用 DreamGaussian 的做法,即对每个三维网格序列做独立的纹理优化,会导致三维网格的纹理在不同的时间戳下有不一致的生成,并且常常会有闪烁等瑕疵伪影效果出现。鉴于此,我们有别于 DreamGaussian,提出了基于视频生成大模型的视频到视频的 UV 空间下纹理优化方法。具体而言,我们在优化过程中随机生成了一系列相机轨迹,并基于此渲染出多个视频,并对渲染出的视频做相应的加噪和去噪处理,从而实现对生成网格模型序列的纹理增强。

基于图片生成大模型和基于视频生成大模型做的纹理优化效果对比展示在图 8 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                                                      图 8 基于视频到视频的纹理优化可以实现时序上纹理的稳定性和一致性

实验结果

相比之前整体优化 4D NeRF 的方法,DG4D 显著减少了四维内容生成所需的时间。具体的用时对比可见表 1。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                     表 1 四维内容生成方法用时对比

对于基于单图生成四维内容的设置,我们跟随之前方法的对比方式,将生成的四维内容与给定图片的一致程度汇报在表 2 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                                                    表 2 基于单图生成的四维内容与图片的一致性对比

对于基于视频生成四维内容的设置,视频生成四维内容方法的数值结果对比可见表 3。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                       表 3 基于视频生成的四维内容相关方法的数值结果对比

此外,我们还对最符合我们方法的单图生成四维内容的各个方法的生成结果做了用户采样测试,测试的结果汇报在表 4 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                      表 4 基于单图生成的四维内容的用户测试

DG4D 与现存开源 SoTA 的图生成四维内容方法和视频生成四维内容方法的效果对比图,分别展示在图 9 和图 10 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                     图 9 图生四维内容效果对比图

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                    图 10 视频生四维内容效果对比图

此外,我们还基于近期的直接前馈实现单图生成 3D GS 的方法(即非使用 SDS 优化方法),做了静态三维内容的生成,并基于此初始化了动态 4D GS 的生成。直接前馈生成 3D GS,可以比基于 SDS 优化的方法,更快地得到质量更高,也更多样化的三维内容。基于此得到的四维内容,展示在图 11 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

                                 图 11 基于前馈生成 3D GS 的方法生成的四维动态内容

更多基于单图生成的四维内容展示在图 12 中。

几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D

结语

基于 4D GS,我们提出了 DreamGaussian4D(DG4D),这是一个高效的图像到 4D 生成框架。相较于现存的四维内容生成框架,DG4D 显着将优化时间从几小时缩短到几分钟。此外,我们展示了使用生成的视频进行驱动运动生成,实现了视觉可控的三维运动生成。

最后,DG4D 允许进行三维网格模型提取,并支持实现时序上保持连贯一致的高质量纹理优化。我们希望 DG4D 提出的四维内容生成框架,将促进四维内容生成方向的研究工作,并有助于多样化的实际应用。

References

[1] Singer et al. "Text-to-4D dynamic scene generation." Proceedings of the 40th International Conference on Machine Learning. 2023. 

[ 2] Cao et al. "Hexplane: A fast representation for dynamic scenes." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2023. 

[3] Jiang et al. "Consistent4D: Consistent 360° Dynamic Object Generation from Monocular Video." The Twelfth International Conference on Learning Representations. 2023.

[4] Zhao et al. "Animate124: Animating one image to 4d dynamic scene." arXiv preprint arXiv:2311.14603 (2023). 

[5] Poole et al. "DreamFusion: Text-to-3D using 2D Diffusion." The Eleventh International Conference on Learning Representations. 2022.

[6] Bahmani , Sherwin, et al. "4d-fy: Text-to-4d generation using hybrid score distillation sampling." arXiv preprint arXiv:2311.17984 (2023).

[7] Tang et al. "DreamGaussian: Generative Gaussian Splatting for Efficient 3D Content Creation." The Twelfth International Conference on Learning Representations. 2023.

以上是几分钟生成四维内容,还能控制运动效果:北大、密歇根提出DG4D的详细内容。更多信息请关注PHP中文网其他相关文章!

声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
4090生成器:与A100平台相比,token生成速度仅低于18%,上交推理引擎赢得热议4090生成器:与A100平台相比,token生成速度仅低于18%,上交推理引擎赢得热议Dec 21, 2023 pm 03:25 PM

PowerInfer提高了在消费级硬件上运行AI的效率上海交大团队最新推出了超强CPU/GPULLM高速推理引擎PowerInfer。PowerInfer和llama.cpp都在相同的硬件上运行,并充分利用了RTX4090上的VRAM。这个推理引擎速度有多快?在单个NVIDIARTX4090GPU上运行LLM,PowerInfer的平均token生成速率为13.20tokens/s,峰值为29.08tokens/s,仅比顶级服务器A100GPU低18%,可适用于各种LLM。PowerInfer与

思维链CoT进化成思维图GoT,比思维树更优秀的提示工程技术诞生了思维链CoT进化成思维图GoT,比思维树更优秀的提示工程技术诞生了Sep 05, 2023 pm 05:53 PM

要让大型语言模型(LLM)充分发挥其能力,有效的prompt设计方案是必不可少的,为此甚至出现了promptengineering(提示工程)这一新兴领域。在各种prompt设计方案中,思维链(CoT)凭借其强大的推理能力吸引了许多研究者和用户的眼球,基于其改进的CoT-SC以及更进一步的思维树(ToT)也收获了大量关注。近日,苏黎世联邦理工学院、Cledar和华沙理工大学的一个研究团队提出了更进一步的想法:思维图(GoT)。让思维从链到树到图,为LLM构建推理过程的能力不断得到提升,研究者也通

复旦NLP团队发布80页大模型Agent综述,一文纵览AI智能体的现状与未来复旦NLP团队发布80页大模型Agent综述,一文纵览AI智能体的现状与未来Sep 23, 2023 am 09:01 AM

近期,复旦大学自然语言处理团队(FudanNLP)推出LLM-basedAgents综述论文,全文长达86页,共有600余篇参考文献!作者们从AIAgent的历史出发,全面梳理了基于大型语言模型的智能代理现状,包括:LLM-basedAgent的背景、构成、应用场景、以及备受关注的代理社会。同时,作者们探讨了Agent相关的前瞻开放问题,对于相关领域的未来发展趋势具有重要价值。论文链接:https://arxiv.org/pdf/2309.07864.pdfLLM-basedAgent论文列表:

FATE 2.0发布:实现异构联邦学习系统互联FATE 2.0发布:实现异构联邦学习系统互联Jan 16, 2024 am 11:48 AM

FATE2.0全面升级,推动隐私计算联邦学习规模化应用FATE开源平台宣布发布FATE2.0版本,作为全球领先的联邦学习工业级开源框架。此次更新实现了联邦异构系统之间的互联互通,持续增强了隐私计算平台的互联互通能力。这一进展进一步推动了联邦学习与隐私计算规模化应用的发展。FATE2.0以全面互通为设计理念,采用开源方式对应用层、调度、通信、异构计算(算法)四个层面进行改造,实现了系统与系统、系统与算法、算法与算法之间异构互通的能力。FATE2.0的设计兼容了北京金融科技产业联盟的《金融业隐私计算

吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了吞吐量提升5倍,联合设计后端系统和前端语言的LLM接口来了Mar 01, 2024 pm 10:55 PM

大型语言模型(LLM)被广泛应用于需要多个链式生成调用、高级提示技术、控制流以及与外部环境交互的复杂任务。尽管如此,目前用于编程和执行这些应用程序的高效系统却存在明显的不足之处。研究人员最近提出了一种新的结构化生成语言(StructuredGenerationLanguage),称为SGLang,旨在改进与LLM的交互性。通过整合后端运行时系统和前端语言的设计,SGLang使得LLM的性能更高、更易控制。这项研究也获得了机器学习领域的知名学者、CMU助理教授陈天奇的转发。总的来说,SGLang的

大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」大模型也有小偷?为保护你的参数,上交大给大模型制作「人类可读指纹」Feb 02, 2024 pm 09:33 PM

将不同的基模型象征为不同品种的狗,其中相同的「狗形指纹」表明它们源自同一个基模型。大模型的预训练需要耗费大量的计算资源和数据,因此预训练模型的参数成为各大机构重点保护的核心竞争力和资产。然而,与传统软件知识产权保护不同,对预训练模型参数盗用的判断存在以下两个新问题:1)预训练模型的参数,尤其是千亿级别模型的参数,通常不会开源。预训练模型的输出和参数会受到后续处理步骤(如SFT、RLHF、continuepretraining等)的影响,这使得判断一个模型是否基于另一个现有模型微调得来变得困难。无

220亿晶体管,IBM机器学习专用处理器NorthPole,能效25倍提升220亿晶体管,IBM机器学习专用处理器NorthPole,能效25倍提升Oct 23, 2023 pm 03:13 PM

IBM再度发力。随着AI系统的飞速发展,其能源需求也在不断增加。训练新系统需要大量的数据集和处理器时间,因此能耗极高。在某些情况下,执行一些训练好的系统,智能手机就能轻松胜任。但是,执行的次数太多,能耗也会增加。幸运的是,有很多方法可以降低后者的能耗。IBM和英特尔已经试验过模仿实际神经元行为设计的处理器。IBM还测试了在相变存储器中执行神经网络计算,以避免重复访问RAM。现在,IBM又推出了另一种方法。该公司的新型NorthPole处理器综合了上述方法的一些理念,并将其与一种非常精简的计算运行

何恺明和谢赛宁团队成功跟随解构扩散模型探索,最终创造出备受赞誉的去噪自编码器何恺明和谢赛宁团队成功跟随解构扩散模型探索,最终创造出备受赞誉的去噪自编码器Jan 29, 2024 pm 02:15 PM

去噪扩散模型(DDM)是目前广泛应用于图像生成的一种方法。最近,XinleiChen、ZhuangLiu、谢赛宁和何恺明四人团队对DDM进行了解构研究。通过逐步剥离其组件,他们发现DDM的生成能力逐渐下降,但表征学习能力仍然保持一定水平。这说明DDM中的某些组件对于表征学习的作用可能并不重要。针对当前计算机视觉等领域的生成模型,去噪被认为是一种核心方法。这类方法通常被称为去噪扩散模型(DDM),通过学习一个去噪自动编码器(DAE),能够通过扩散过程有效地消除多个层级的噪声。这些方法实现了出色的图

See all articles

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

AI Hentai Generator

AI Hentai Generator

免费生成ai无尽的。

热门文章

R.E.P.O.能量晶体解释及其做什么(黄色晶体)
2 周前By尊渡假赌尊渡假赌尊渡假赌
仓库:如何复兴队友
4 周前By尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒险:如何获得巨型种子
3 周前By尊渡假赌尊渡假赌尊渡假赌

热工具

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

适用于 Eclipse 的 SAP NetWeaver 服务器适配器

适用于 Eclipse 的 SAP NetWeaver 服务器适配器

将Eclipse与SAP NetWeaver应用服务器集成。

mPDF

mPDF

mPDF是一个PHP库,可以从UTF-8编码的HTML生成PDF文件。原作者Ian Back编写mPDF以从他的网站上“即时”输出PDF文件,并处理不同的语言。与原始脚本如HTML2FPDF相比,它的速度较慢,并且在使用Unicode字体时生成的文件较大,但支持CSS样式等,并进行了大量增强。支持几乎所有语言,包括RTL(阿拉伯语和希伯来语)和CJK(中日韩)。支持嵌套的块级元素(如P、DIV),

Atom编辑器mac版下载

Atom编辑器mac版下载

最流行的的开源编辑器