語言模型擊敗擴散模型,在視訊和圖像生成上實現雙SOTA!
這是來自GoogleCMU最新研究成果。
據介紹,這是語言模型第一次在標誌性的ImageNet基準上擊敗擴散模型。
而背後的關鍵組件在於視覺分詞器(video tokenizer) ,它能將像素空間輸入映射為適合LLM學習的token。
GoogleCMU研究團隊提出了MAGVIT-v2,在另外兩項任務中超越了先前最優視覺分詞器。
已經形成共識的是,大語言模型在各個生成領域都有出色的表現。例如文字、音訊、程式碼生成等。
但一直以來在視覺生成方面,語言模型卻落後於擴散模型。
團隊認為,其主要原因在於缺乏一個好的視覺表示,類似於自研語言系統,能有效地對視覺世界進行建模。與自然語言不同,人類會對視覺世界尚未演化出最佳的詞彙。而這也限制了大語言模型的視覺生成能力。
基於這樣的判斷,這篇研究主要完成了三項工作:
根據作者介紹,這也是視覺分詞器首次成功地實現了與標準編解碼器相媲美的效果。
在原SOTA視覺tokenizerMAGVIT (Masked Generative Video Transformer)基礎上,該方法主要完成了兩種設計:無查找量化(Lookup-Free Quantization ,LFQ)以及圖像-視頻聯合tokenizer。
最終在視訊/影像生成,ImageNet 512×512和Kinetics-600,都優於Diffusion Model。
而在影片壓縮、動作辨識上,也優於以往的結果。
一作於力軍目前是CMU電腦科學學院語言技術研究所博士生,師從Alexander G. Hauptmann教授,同時也是Google學生研究員。研究興趣在於多模態基礎模型,特別是多工影片生成。
在來到CMU之前,他在北大獲得了電腦和經濟學雙學士學位。
在研究團隊中也看到了其他不少華人面孔。
通訊作者蔣路,目前是Google研究院科學家以及CMU的兼任教授。
他的研究主要針對多模態大數據科領域,特別是穩健深度學習、生成式人工智慧和多模態基礎模型。
論文連結:
https://arxiv.org/abs/2310.05737
https://magvit.cs.cmu .edu/v2/
以上是大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友的詳細內容。更多資訊請關注PHP中文網其他相關文章!