搜尋
首頁科技週邊人工智慧史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

原文標題:NeRF-XL: Scaling NeRFs with Multiple GPUs

論文連結:https://research.nvidia.com/labs/toronto-ai/nerfxl/assets/nerfxl.pdf

計畫連結:https://research.nvidia.com/labs/toronto-ai/nerfxl/

作者單位:NVIDIA 加州大學柏克萊分校

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

##論文想法:史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

###本文提出了NeRF-XL,這是一種原理性的方法,用於在多個圖形處理器(GPUs)之間分配神經射線場(NeRFs),從而使得具有任意大容量的NeRF的訓練和渲染成為可能。本文首先回顧了現有的幾個GPU方法,這些方法將大型場景分解成多個獨立訓練的NeRFs [9, 15, 17],並確定了這些方法的幾個基本問題,這些問題正在使用額外的計算資源(GPUs)進行訓練時阻礙了重建品質的提升。 NeRF-XL解決了這些問題,並允許透過簡單地使用更多的硬體來訓練和渲染具有任意數量參數的NeRFs。本文方法的核心是一個新穎的分散式訓練和渲染公式,這在數學上等同於經典的單GPU案例,並最小化了GPU之間的通訊。透過解鎖具有任意大參數數量的NeRFs,本文的方法是第一個揭示NeRFs GPU擴展規律(scaling laws)的方法,顯示出隨著參數數量的增加而提高的重建質量,以及隨著更多的GPU的增加而提高的速度。本文在多種資料集上展示了NeRF-XL的有效性,包括包含約258K張影像、覆蓋了25平方公里的城市區域的MatrixCity [5]。 #########論文設計:#########近期在新視角合成的進步極大地提高了我們捕獲神經輻射場(NeRFs)的能力,使得這一過程變得更加易於接近。這些進步使得我們能夠重建更大的場景和場景內更精細的細節。無論是透過增加空間規模(例如,捕捉數公里長的城市景觀)還是提高細節水平(例如,掃描田野中的草葉),擴大捕獲場景的範圍都涉及到將更多的信息量納入NeRF中,以實現準確的重建。因此,對於資訊含量高的場景,重建所需的可訓練參數數量可能會超過單一GPU的記憶體容量。 ######本文提出了NeRF-XL,這是一個原理性的演算法,用於在多個GPU之間高效分配神經漸射場景(NeRFs)。本文的方法透過簡單增加硬體資源,使得捕捉高資訊含量的場景(包括大規模和高細節特徵的場景)成為可能。 NeRF-XL的核心是在一組不相交的空間區域之間分配NeRF參數,並跨GPU聯合訓練它們。有別於傳統的分散式訓練流程在後向傳播中同步梯度,本文的方法只需要在前向傳播中同步訊息。此外,透過仔細渲染方程程和分散式設定中相關的損失項,本文大幅減少了GPU之間所需的資料傳輸。這種新穎的重寫提高了訓練和渲染的效率。本文方法的靈活性和可擴展性使得本文能夠夠夠多個GPU高效地優化和使用多個GPU高效能最佳化。 ######本文的工作與最近採用了GPU演算法來建模大規模場景的方法形成了對比,這些方法透過訓練一組獨立立體的NeRFs來實現[9, 15, 17]。雖然這些方法不需要GPU之間的通信,但每個NeRF都需要建模整個空間,包括背景區域。這導致隨著GPU數量的增加,模型容量中的冗餘度增加。此外,這些方法在渲染時需要混合NeRFs,這會降低視覺品質並在重疊區域引入偽影。因此,與NeRF-XL不同的是,這些方法在訓練中使用更多的模型參數(相當於更多的GPU時),未能實現視覺品質的提升。 ######本文透過一系列多樣化的擷取案例來展示本文方法的有效性,包括街道掃描、無人機飛越和以物件為中心的影片。這些案例的範圍從小場景(10平方公尺)到整個城市(25平方公里)。本文的實驗表明,隨著本文將更多的運算資源分配給最佳化過程,NeRF-XL開始能夠實現改善的視覺品質(透過PSNR測量)和渲染速度。因此,NeRF-XL使得在任何空間規模和細節的場景上訓練工具有任意容量的NeRF成為可能。 ###############圖 1:本文基於原理的多GPU分散式訓練演算法能夠將NeRFs擴展到任意大的規模。 ############

圖 2:獨立訓練與多GPU聯合訓練。獨立地訓練多個NeRFs[9,15,18]要求每個NeRF既要建模焦點區域也要建模其周圍環境,這導致了模型容量的冗餘。相較之下,本文的聯合訓練方法使用不重疊的NeRFs,因此沒有任何冗餘。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 3:獨立訓練需要在新視角合成時進行混合。無論是在2D[9, 15]或3D[18]中進行混合,都會在渲染中引入模糊。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 4:獨立訓練導致不同的相機最佳化。在NeRF中,相機優化可以透過變換不準確的相機本身或所有其他相機以及底層3D場景來實現。因此,伴隨相機優化獨立訓練多個NeRF可能導致相機校正和場景幾何的不一致性,這給混合渲染帶來了更多困難。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 5:3D混合可能造成的視覺偽影。左圖展示了使用2個GPU訓練的MegaNeRF結果。在0%重疊時,由於獨立訓練,邊界出現了偽影;而在15%重疊時,由於3D混合,出現了嚴重的偽影。右圖闡釋了這種偽影的成因:雖然每個獨立訓練的NeRF渲染出正確的顏色,但混合後的NeRF並不保證正確的顏色渲染。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 6:本文的訓練流程。本文的方法共同訓練所有GPU上的多個NeRFs,每個NeRF涵蓋一個不相交的空間區域。 GPU之間的通訊僅發生在前向傳播中,而不發生在後向傳播中(如灰色箭頭所示)。 (a) 本文可以透過評估每個NeRF以獲得樣本顏色和密度,然後將這些值廣播到所有其他GPU以進行全域體渲染(見第4.2節)。 (b) 透過重寫體渲染方程,本文可以將資料傳輸量大幅減少到每條光線一個值,從而提高效率(見第4.3節)。

實驗結果:

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 7:定性比較。與先前的工作相比,本文的方法有效地利用多GPU配置,在所有類型的資料上提高了效能。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 8:定量比較。基於獨立訓練的先前工作未能隨著額外GPU的增加而實現效能提升,而本文的方法隨著訓練資源的增加,享受了渲染品質和速度的提升。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 9:本文方法​​的可擴展性。更多的GPU允許有更多的可學習參數,這導致了更大的模型容量和更好的品質。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 10:大規模擷取上的更多渲染結果。本文在更大的捕獲資料集上使用更多的GPU測試了本文方法的穩健性。請參閱本文的網頁,以取得這些資料的影片導覽。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 11:在University4資料集上與PyTorch DDP的比較。 PyTorch 分散式資料並行(Distributed Data Parallel,DDP)旨在透過跨GPU分佈光線來加快渲染速度。相較之下,本文的方法是跨GPU分佈參數,突破了叢集中單一GPU的記憶體限制,並且能夠擴大模型容量以獲得更好的品質。

史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!

圖 12:University4上的同步成本。本文基於分區的體渲染(見第4.3節)允許 tile-based 通信,這比原始的基於樣本的通信(見第4.2節)成本要低得多,因此能夠實現更快的渲染。

總結:

總結來說,本文重新檢視了將大規模場景分解為獨立訓練的NeRFs(神經輻射場)的現有方法,並發現了阻礙額外運算資源(GPUs)有效利用的重大問題,這與利用多GPU設定來提升大規模NeRF效能的核心目標相矛盾。因此,本文引入了NeRF-XL,這是一種原理性的演算法,能夠有效地利用多GPU設置,並透過聯合訓練多個非重疊的NeRFs來在任何規模上增強NeRF性能。重要的是,本文的方法不依賴任何啟發式規則,並且在多GPU設定中遵循NeRF的擴展規律(scaling laws),適用於各種類型的資料。

引用:

@misc{li2024nerfxl,title={NeRF-XL: Scaling NeRFs with Multiple GPUs}, author={Ruilong Li and Sanja Fidler and Angjoo Kanazawa and Francis Williams},year={2024},eprint={2404.16221},archivePrefix={arXiv},primaryClass={cs.CV}}
#

以上是史上最大重建25km²! NeRF-XL:真正有效利用多卡聯合訓練!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
从VAE到扩散模型:一文解读以文生图新范式从VAE到扩散模型:一文解读以文生图新范式Apr 08, 2023 pm 08:41 PM

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

普林斯顿陈丹琦:如何让「大模型」变小普林斯顿陈丹琦:如何让「大模型」变小Apr 08, 2023 pm 04:01 PM

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了Apr 08, 2023 pm 06:21 PM

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉Transformer解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉TransformerApr 09, 2023 pm 02:01 PM

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Apr 07, 2023 pm 11:21 PM

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药Apr 09, 2023 pm 07:01 PM

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:​https://spj.scien

​什么是Transformer机器学习模型?​什么是Transformer机器学习模型?Apr 08, 2023 pm 06:31 PM

译者 | 李睿审校 | 孙淑娟​近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军Apr 09, 2023 pm 01:51 PM

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
2 週前By尊渡假赌尊渡假赌尊渡假赌
倉庫:如何復興隊友
1 個月前By尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒險:如何獲得巨型種子
4 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

MantisBT

MantisBT

Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

VSCode Windows 64位元 下載

VSCode Windows 64位元 下載

微軟推出的免費、功能強大的一款IDE編輯器

Dreamweaver Mac版

Dreamweaver Mac版

視覺化網頁開發工具

SublimeText3 英文版

SublimeText3 英文版

推薦:為Win版本,支援程式碼提示!

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器