超高解析度作為記錄和顯示高品質影像、影片的一種標準受到眾多研究者的歡迎,與較低解析度(1K 高清格式)相比,高解析度捕捉的場景通常細節十分清晰,像素的訊息被一個小patch 放大。但是,想要將這種技術應用於影像處理和電腦視覺還面臨許多挑戰。
本文中,來自阿里巴巴的研究者專注於新的視圖合成任務,提出了一個名為4K-NeRF 的框架,其基於NeRF 的體積渲染方法可以實現在4K 超高解析度下高保真視圖合成。
#論文網址:https://arxiv.org/abs/2212.04701
專案首頁:https://github.com/frozoul/4K-NeRF
#話不多說,我們先來看看效果(以下影片均進行了降採樣處理,原版4K 影片請參考原項目)。
方法
接下來我們來看看研究是如何實現的。
4K-NeRF pipeline(如下圖):使用基於patch 的射線採樣技術,聯合訓練VC-Encoder(View-Consistent)(基於DEVO)在一個較低解析度的空間中編碼三維幾何訊息,之後經過一個VC-Decoder 實現針對高頻細高品質的渲染與視圖一致性的增強。
該研究基於DVGO [32] 中定義的公式實例化編碼器,學習到的基於體素網格的表示來明確地編碼幾何結構:
對於每個取樣點,密度估計的三線性插值配備了一個softplus 激活函數用於產生該點的體密度值:
#顏色則是用一個小型的MLP 估計算:
這樣可以透過累積沿著設線r 的取樣點的特徵來得到每個射線(或像素)的特徵值:
#為了更好地利用嵌入在VC-Encoder 中的幾何屬性,該研究還透過估計每條射線r 沿採樣射線軸的深度產生了一個深度圖。估計的深度圖為上面Encoder 產生的場景三維結構提供了強有力的指導:
之後經過的網路是透過疊加幾個卷積塊(既不使用非參數歸一化,也不使用降採樣操作)和交錯的升採樣操作來建立的。特別是,該研究不是簡單地將特徵 F 和深度圖 M 連接起來,而是加入了深度圖中的深度訊號,並透過學習變換將其註入每個區塊來調製區塊來啟動。
不同於傳統的 NeRF 方法中的像素級機制,該研究的方法旨在捕捉射線(像素)之間的空間資訊。因此,這裡不適合採用 NeRF 中隨機射線採樣的策略。因此該研究提出了一種基於 patch 的射線採樣訓練策略,以方便捕捉射線特徵之間的空間依賴性。訓練中,首先將訓練視圖的影像分割成大小為 N_p×N_p 的 patch p,以確保像素上的取樣機率是均勻的。當影像空間維數無法被 patch 大小精確分割時,需要截斷 patch 直到邊緣,得到一組訓練 patch。然後從集合中隨機抽取一個 (或多個) patch,透過 patch 中像素的射線形成每次迭代的 mini-batch。
為了解決對精細細節產生模糊或過度平滑視覺效果的問題,該研究添加了對抗性損失和感知損失來規範精細細節合成。感知損失透過預先訓練的19 層VGG 網路來估計特徵空間中預測的patch
和真值p 之間的相似性:
該研究使用損失而不是MSE 來監督高頻細節的重建
此外,研究也加入了一個輔助MSE 損失,最後總的loss 函數形式如下:
實驗效果
定性分析
#實驗對4K-NeRF 與其他模型進行了比較,可以看到基於普通NeRF 的方法有著不同程度的細節失落、模糊現象。相比之下,4K-NeRF 在這些複雜和高頻細節上呈現了高品質的逼真渲染,即使是在訓練視野有限的場景上。
#量化分析
##研究與目前幾個方法在4k 資料的基準下去做對比,包括Plenoxels、DVGO、JaxNeRF、MipNeRF-360 和NeRF-SR。實驗不但以影像恢復的評估指標作為對比,也提供了推理時間和快取內存,以供全面評估參考。結果如下:
總結及未來展望
該研究探討了NeRF 在精細細節建模方面的能力,提出了一個新穎的框架來增強其在以極高分辨率的場景中恢復視圖一致的細微細節的表現力。此外,該研究還引入了一對保持幾何一致性的編解碼器模組,在較低的空間中有效地建模幾何性質,並利用幾何感知特徵之間的局部相關性實現全尺度空間中的視圖一致性的增強,並且基於patch 的抽樣訓練框架也允許該方法整合來自面向感知的正則化的監督。該研究希望將框架合併到動態場景建模中的效果,以及神經渲染任務作為未來的方向。
以上是神還原物件複雜、高頻細節,4K-NeRF高保真視圖合成來了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

ai合并图层的快捷键是“Ctrl+Shift+E”,它的作用是把目前所有处在显示状态的图层合并,在隐藏状态的图层则不作变动。也可以选中要合并的图层,在菜单栏中依次点击“窗口”-“路径查找器”,点击“合并”按钮。

ai橡皮擦擦不掉东西是因为AI是矢量图软件,用橡皮擦不能擦位图的,其解决办法就是用蒙板工具以及钢笔勾好路径再建立蒙板即可实现擦掉东西。

虽然谷歌早在2020年,就在自家的数据中心上部署了当时最强的AI芯片——TPU v4。但直到今年的4月4日,谷歌才首次公布了这台AI超算的技术细节。论文地址:https://arxiv.org/abs/2304.01433相比于TPU v3,TPU v4的性能要高出2.1倍,而在整合4096个芯片之后,超算的性能更是提升了10倍。另外,谷歌还声称,自家芯片要比英伟达A100更快、更节能。与A100对打,速度快1.7倍论文中,谷歌表示,对于规模相当的系统,TPU v4可以提供比英伟达A100强1.

ai可以转成psd格式。转换方法:1、打开Adobe Illustrator软件,依次点击顶部菜单栏的“文件”-“打开”,选择所需的ai文件;2、点击右侧功能面板中的“图层”,点击三杠图标,在弹出的选项中选择“释放到图层(顺序)”;3、依次点击顶部菜单栏的“文件”-“导出”-“导出为”;4、在弹出的“导出”对话框中,将“保存类型”设置为“PSD格式”,点击“导出”即可;

Yann LeCun 这个观点的确有些大胆。 「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。而他口中的自回归,正是当前爆红的 GPT 家族模型所依赖的学习范式。当然,被 Yann LeCun 指出问题的不只是自回归模型。在他看来,当前整个的机器学习领域都面临巨大挑战。这场辩论的主题为「Do large language models need sensory grounding for meaning and u

ai顶部属性栏不见了的解决办法:1、开启Ai新建画布,进入绘图页面;2、在Ai顶部菜单栏中点击“窗口”;3、在系统弹出的窗口菜单页面中点击“控制”,然后开启“控制”窗口即可显示出属性栏。

ai移动不了东西的解决办法:1、打开ai软件,打开空白文档;2、选择矩形工具,在文档中绘制矩形;3、点击选择工具,移动文档中的矩形;4、点击图层按钮,弹出图层面板对话框,解锁图层;5、点击选择工具,移动矩形即可。

引入密集强化学习,用 AI 验证 AI。 自动驾驶汽车 (AV) 技术的快速发展,使得我们正处于交通革命的风口浪尖,其规模是自一个世纪前汽车问世以来从未见过的。自动驾驶技术具有显着提高交通安全性、机动性和可持续性的潜力,因此引起了工业界、政府机构、专业组织和学术机构的共同关注。过去 20 年里,自动驾驶汽车的发展取得了长足的进步,尤其是随着深度学习的出现更是如此。到 2015 年,开始有公司宣布他们将在 2020 之前量产 AV。不过到目前为止,并且没有 level 4 级别的 AV 可以在市场


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

Dreamweaver CS6
視覺化網頁開發工具

禪工作室 13.0.1
強大的PHP整合開發環境

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境