首頁 >科技週邊 >人工智慧 >大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

PHPz
PHPz轉載
2023-10-16 14:29:01807瀏覽

語言模型擊敗擴散模型,在視訊和圖像生成上實現雙SOTA!

這是來自GoogleCMU最新研究成果。

據介紹,這是語言模型第一次在標誌性的ImageNet基準上擊敗擴散模型。

而背後的關鍵組件在於視覺分詞器(video tokenizer) ,它能將像素空間輸入映射為適合LLM學習的token。

GoogleCMU研究團隊提出了MAGVIT-v2,在另外兩項任​​務中超越了先前最優視覺分詞器。

大語言模型擊敗擴散模型

已經形成共識的是,大語言模型在各個生成領域都有出色的表現。例如文字、音訊、程式碼生成等。

但一直以來在視覺生成方面,語言模型卻落後於擴散模型。

團隊認為,其主要原因在於缺乏一個好的視覺表示,類似於自研語言系統,能有效地對視覺世界進行建模。與自然語言不同,人類會對視覺世界尚未演化出最佳的詞彙。而這也限制了大語言模型的視覺生成能力。

基於這樣的判斷,這篇研究主要完成了三項工作:

  • 提出一種新的視覺tokenizer,在視覺生成、視訊壓縮以及動作識別都優於此前最優表現。
  • 一種全新無查找(lookup-free)的量化方法,可透過學習大量詞彙來提高語言模型的視覺生成品質;
  • #首次有證據表明,在相同訓練資料、在等效模型大小和類似訓練預算的條件下,語言模型在ImageNet上擊敗擴散模型。

根據作者介紹,這也是視覺分詞器首次成功地實現了與標準編解碼器相媲美的效果。

在原SOTA視覺tokenizerMAGVIT (Masked Generative Video Transformer)基礎上,該方法主要完成了兩種設計:無查找量化(Lookup-Free Quantization ,LFQ)以及圖像-視頻聯合tokenizer。

大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

最終在視訊/影像生成,ImageNet 512×512和Kinetics-600,都優於Diffusion Model。

大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

而在影片壓縮、動作辨識上,也優於以往的結果。

大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

一作是北大校友

一作於力軍目前是CMU電腦科學學院語言技術研究所博士生,師從Alexander G. Hauptmann教授,同時也是Google學生研究員。研究興趣在於多模態基礎模型,特別是多工影片生成。

在來到CMU之前,他在北大獲得了電腦和經濟學雙學士學位。

大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友

在研究團隊中也看到了其他不少華人面孔。

通訊作者蔣路,目前是Google研究院科學家以及CMU的兼任教授。

他的研究主要針對多模態大數據科領域,特別是穩健深度學習、生成式人工智慧和多模態基礎模型。

論文連結:
https://arxiv.org/abs/2310.05737
https://magvit.cs.cmu .edu/v2/

以上是大語言模型擊敗擴散模型!視訊影像生成雙SOTA,GoogleCMU最新研究,一作北大校友的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除