影像生成領域,看來又要變天了。
就在剛剛,OpenAI開源了比擴散模型更快、性能更好的一致性模型:
#無需對抗訓練,就能生成高品質圖片!
這個重磅消息一經發出,立刻引爆學術圈。
雖說論文本身在3月份就已低調發布,但當時大夥兒普遍認為它只是個OpenAI的前沿研究,並不會真正將細節公開。
沒想到這次直接來了個開源。有網友立刻上手實測了一波效果,發現只需要3.5秒左右就能生成64張左右256×256的影像:
##遊戲結束!這是這位網友產生的圖像效果,看起來還不錯: 還有網友調侃:這次OpenAI終於Open了! 值得一提的是,論文一作OpenAI科學家宋颮,是一位清華校友,16歲就透過領導計畫進入清華數理基礎科學班求學。 一起來看看這次OpenAI開源了一項怎樣的研究。 開源了一個怎樣的重磅研究? 作為一個影像產生AI,一致性模型(Consistency Model)最大的特點在於快又好。 相比擴散模型,它主要有兩大優點:其一,無需對抗訓練(adversarial training),就能直接生成高品質的影像樣本。 其二,相較於擴散模型可能需要數百甚至上千次迭代,一致性模型只需要一兩步驟就能搞定多種影像任務-#包括上色、去雜訊、超分等,都可以在幾步之內搞定,而不需要對這些任務進行明確訓練。 (當然,如果進行少樣本學習的話,生成效果也會更好) #所以一致性模型究竟是如何實現這種效果的? 從原理來看,一致性模型的誕生與ODE(常微分方程)式產生擴散模型有關。 圖中可見,ODE會先一步步將圖片資料轉換成噪聲,隨後再進行一個逆向求解,從噪聲中學習生成影像。 而就在這個過程中,作者們試圖將ODE軌跡上的任何點(如Xt、Xt和Xr)映射到它的原點(如X0)進行生成建模。 隨後,這個映射的模型被命名為一致性模型,因為它們的輸出都是同一軌跡上的同一點:
##基於這種思路,一致性模型不需要再經過漫長的迭代,才能產生一個相對品質比較高的影像,而是能做到一步生成。
下圖是一致性模型(CD)和擴散模型(PD)在影像生成指標FID上的對比。
其中,PD是去年史丹佛和Google大腦提出的一種最新擴散模型方法漸進式蒸餾(progressive distillation)的簡稱,CD(consistency distillation)則是一致性蒸餾方法。
可以看出,幾乎在所有資料集上,一致性模型的影像產生效果都要比擴散模型更好,唯一的例外是256×256的房間資料集上:
除此之外,作者們也將擴散模型、一致性模型和GAN等模型在其他各種資料集上進行了對比:
不過也有網友提到,這次開源的AI一致性模型,能產生的圖像還是太小:
很難過,這次開源的版本生成的圖像還是太小了,如果能給出生成更大圖像的開源版本,肯定會非常讓人興奮。
也有網友猜測,可能只是OpenAI還沒訓練出來。不過可能訓練出來了我們也不一定能搞到程式碼(手動狗頭)。
不過對於這項工作的意義,TechCrunch表示:
你若是有一堆GPU,那用擴散模型在一兩分鐘內迭代1500多次,生成圖片的效果當然是極好的。
但如果你想在手機上或聊天對話的時候即時產生圖片,那顯然擴散模型不是最好的選擇。
一致性模型是OpenAI下一個重要動作。
期待OpenAI會開源一波解析度更高的圖像生成AI~
論文一作宋颯,目前是OpenAI的研究科學家。
他14歲時,曾以17位評審全票通過的成績,入選「清華大學新百年領軍計畫」。在隔年高考中,他又成為連雲港市理科狀元,順利考入清華。
2016年,宋颯從清華大學數理基礎科學班畢業,此後赴史丹佛深造。 2022年,宋颮獲史丹佛電腦科學博士學位,而後加入OpenAI。
在博士期間,他的一作論文「Score-Based Generative Modeling through Stochastic Differential Equations」也獲得過ICLR 2021的傑出論文獎。
根據其個人主頁信息,從2024年1月開始,宋颮將正式加入加州理工學院電子系和計算數學科學系,擔任助理教授。
專案地址:
##https://www.php.cn/link/4845b84d63ea5fa8df6268b8d1616a8f
##論文地址:
以上是OpenAI新生成模式開源炸場!比Diffusion更快更強,清華校友宋颯一作的詳細內容。更多資訊請關注PHP中文網其他相關文章!