隨著科技的發展,研究人員繼續尋找新的方法來利用人工智慧和機器學習能力。本週早些時候,Google科學家宣布創建了Transframer,這是一個新的框架,它能根據單一的影像輸入來產生短影片。這項新技術有朝一日可以增強傳統的渲染解決方案並使開發者能夠基於機器學習能力創建虛擬環境。
這個新框架的名稱(及在某些方面的概念)是對另一個基於人工智慧的模型Transformer的讚。 Transformer最初於2017年推出,是一個新穎的神經網路架構,它有能力透過建模和比較句子中的其他單字來產生文字。此後,該模型被納入了標準的深度學習框架如TensorFlow和PyTorch。
據悉,Transframer使用具有類似屬性的背景圖像,結合查詢註釋來創建短視頻。儘管在原始影像輸入中沒有提供任何幾何數據,但產生的影片在目標影像周圍移動並將準確的視角可視化。
##這項新技術使用Google的DeepMind人工智慧平台進行了演示,其功能是分析單一的照片背景影像以此來獲得關鍵的影像資料並產生額外的影像。在這一分析過程中,系統確定了圖片的框架,這反過來又幫助系統預測圖片的周圍環境。
然後,語境圖像被用來進一步預測圖片從不同角度會出現的情況。預測根據資料、註釋及語境框架中的任何其他資訊對額外影像框架的機率進行建模。
該框架透過提供基於非常有限的資料集來產生合理準確的影片的能力,這標誌著視訊技術的巨大進步。 Transframer任務在其他跟影片相關的任務和基準上也顯示出極有前景的結果,如語意分割、影像分類和光流預測。
對基於影片的產業如遊戲開發可能具有潛在的巨大影響。目前的遊戲開發環境依賴核心渲染技術,如著色、紋理映射、景深和光線追蹤。像Transframer這樣的技術有可能透過使用人工智慧和機器學習來建立他們的環境並同時來減少創建環境所需的時間、資源和精力以為開發者提供一個全新的開發路徑。
以上是Google人工智慧技術「Transframer」可根據一張圖片建立短視頻的詳細內容。更多資訊請關注PHP中文網其他相關文章!