首頁  >  文章  >  科技週邊  >  一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

PHPz
PHPz轉載
2023-04-12 23:16:01955瀏覽

Abracadabra!

在2D生成3D模型上,英偉達亮出了自稱「世界級」研究:GET3D。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

經過2D影像訓練後,此模型可產生具有高保真紋理和複雜幾何細節的3D形狀。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

究竟有多厲害?

形狀、紋理、材質自訂

GET3D之所以得名,是因為它能夠產生顯式紋理3D網格(Generate Explicit Textured 3D meshes )。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

論文網址:https://arxiv.org/pdf/2209.11163.pdf

#也就是說,它創建的形狀是三角形網格的形式,就像紙模型一樣,上面覆蓋著紋理材質。

關鍵是,這個模型可以產生多種多樣,且高品質的模型。

例如,椅子腿上的各種輪子;汽車的車輪,燈和車窗;動物的耳朵、角;摩托車的後視鏡,車輪胎上的紋理;高跟鞋,人類衣服...

街道兩旁的獨特建築,不同的車輛呼嘯而過,還有不同的人群穿梭而過...

若想透過手動建模做出同樣的3D虛擬世界非常耗時。

儘管先前的3D生成AI模型雖然比手動建模更快,但它們在產生更多豐富細節模型的能力還是欠缺。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

即便是,最新的反向渲染方法也只能基於從各個角度拍攝的2D影像生成3D對象,開發人員一次只能建構一個3D物件。

GET3D可就不一樣了。

開發者可以輕鬆地將生成模型匯入到遊戲引擎、3D建模器和影片渲染器中,對它們進行編輯。

當創建者將GET3D產生的模型匯出到圖形應用程序,他們就可以在模型所在的場景中移動或旋轉時應用逼真的照明效果。

如圖:

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

另外,GET3D還可以做到文字引導形狀生成。

透過使用英偉達的另一個AI工具StyleGAN-NADA,開發人員可以使用文字提示為圖像添加特定的風格。

#

例如,可以將渲染後的汽車變成一輛燒毀的汽車或出租車

#將一個普通的房子改造成磚房、著火的房子,甚至是鬼屋。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

或將老虎紋、熊貓紋的特色應用在任何動物身上...

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

#簡直就是辛普森家庭的「動物森友會」...

#英偉達介紹,在單一英偉達GPU上訓練,GET3D每秒可以產生約20個物件。

在此,它所學習的訓練資料集越大、越多樣化,輸出的多樣性和詳細程度就越高。

英偉達稱,研究團隊僅用2天時間,就使用A100 GPU在大約100萬張圖像上訓練了模型。

研究方法與過程

GET3D框架,主要作用是合成有紋理的三維形狀。

生成過程分為兩個部分:第一部分是幾何分支,可以輸出任意拓樸結構的表面網格。另一部分則是紋理分支,它會產生一個紋理場,由此可以在表麵點上進行查詢。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

#在訓練過程中,一個可微分光柵化器被用來高效渲染所產生的紋理網格,並渲染成二維的高解析度影像。整個過程是可分的,允許透過傳播二維判別器的梯度,從影像中進行對抗性訓練。

之後,梯度從二維判別器傳播到兩個產生器分支。

研究人員又進行了廣泛的實驗來評估模型。他們首先將GET3D產生的三維紋理網格的品質與現有的使用ShapeNet和Turbosquid資料集產生的做比較。

接下來,研究人員根據對比結果在之後的研究中對模型進行了最佳化,並做了更多實驗。

GET3D模型在幾何形狀和紋理能夠實現相分離。

如圖,在每一行中展示了由相同的幾何隱藏程式碼產生的形狀,同時更改了紋理程式碼。

在每一列中展示了由相同的紋理隱藏程式碼產生的形狀,同時更改了幾何程式碼。

另外,研究人員在每一行中相同的紋理隱藏程式碼產生的形狀,從左到右插入幾何隱藏程式碼。

並由相同的幾何隱藏程式碼產生的形狀,同時從上到下插入紋理程式碼。結果顯示,每個插值對生成模型都是有意義的。

#

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

在每個模型的子圖中,GET3D能夠在所有類別的不同形狀之間的生成實現平滑過渡。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

在每一行中,透過加入一個小雜訊來局部擾亂隱藏程式碼。透過這種方式,GET3D能夠在局部產生外觀相似但略有差異的形狀。

一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙

研究人員指出,未來版本的GET3D可以使用攝影機姿態估計技術,讓開發人員訓練模型的現實世界的數據,而不是合成數據集。

未來,透過改進,開發人員可以在各種3D形狀上一次訓練GET3D,而不需要一次在一個物件類別上訓練它。

英偉達人工智慧研究副總裁Sanja Fidler表示,

GET3D讓我們離人工智慧驅動的3D內容創作大眾化又更近了一步。它即時產生帶有紋理3D形狀的能力可能會改變開發人員的遊戲規則,幫助他們用各種有趣的物件快速填充虛擬世界。

作者介紹

論文一作Jun Gao是多倫多大學機器學習小組的博士生,指導教授是Sanja Fidler。

除了學歷優異以外,他也是英偉達多倫多人工智慧實驗室的研究科學家。

他的研究主要集中在深度學習(DL),目標直指結構化幾何表示學習。同時,他的研究也從人類對2D和3D影像、視訊的感知中獲得見解。

這麼優秀的高材生,來自北京大學。他於2018年本科畢業,並獲得學士學位。在北大期間,他和王立威教授一同工作。

畢業後他也曾在史丹佛大學、MSRA和英偉達進行實習。

Jun Gao的導師同樣是業界翹楚。

Fidler是多倫多大學的副教授,Vector研究所的教師,同時,她也是該研究所的共同創始成員之一。

教學之外,她也是英偉達公司的人工智慧研究副總裁,領導著多倫多的一個研究實驗室。

在來到多倫多之前,她是芝加哥豐田技術研究所的研究助理教授。該研究所位於芝加哥大學校園內,算是學術機構。

Fidler的研究領域集中在電腦視覺(CV)和機器學習(ML),聚焦於CV和圖形學的交叉領域、三維視覺,以及三維重建與合成,還有影像註解的互動方法等等。

#

以上是一塊GPU,每秒20個模型!英偉達新玩具用GET3D造元宇宙的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除