圖像到視訊生成(I2V)任務是電腦視覺領域的一項挑戰,旨在將靜態圖像轉化為動態視訊。這個任務的困難在於從單張影像中提取並產生時間維度的動態訊息,同時保持影像內容的真實性和視覺上的連貫性。現有的I2V方法通常需要複雜的模型架構和大量的訓練資料來實現這一目標。
近期,快手主導的一項新研究成果《I2V-Adapter: A General Image-to-Video Adapter for Video Diffusion Models》發布。該研究引入了一種創新的影像到視訊轉換方法,提出了一種輕量級適配器模組,即I2V-Adapter。此適配器模組能夠在不改變現有文字到視訊生成(T2V)模型原始結構和預訓練參數的情況下,將靜態影像轉換成動態視訊。此方法在影像到影片轉換領域具有廣泛的應用前景,能夠為影片創作、媒體傳播等領域帶來更多可能性。這項研究結果的發布對於推動影像和視訊技術的發展具有重要意義,為相關領域的研究者提供了一種有效的工具和方法。
- #論文網址:https://arxiv.org/pdf/2312.16693 .pdf
- 專案首頁:https://i2v-adapter.github.io/index.html
- 程式碼位址:https://github.com/I2V-Adapter/I2V-Adapter-repo
相對於現有方法而言,I2V-Adapter在可訓練參數方面取得了巨大的改進,其參數數量最低可達到22M,僅為主流方案Stable Video Diffusion的1%。同時,此適配器也具備與Stable Diffusion社群開發的客製化T2I模型(如DreamBooth、Lora)和控制工具(如ControlNet)的兼容性。透過實驗,研究者證明了I2V-Adapter在產生高品質視訊內容方面的有效性,為I2V領域的創意應用開啟了新的可能性。
方法介紹
Temporal modeling with Stable Diffusion
相較於影像生成,影片生成面臨獨特的挑戰,即建模視訊影格之間的時序連貫性。目前大多數的方法都是基於預先訓練的T2I模型,例如Stable Diffusion和SDXL,透過引入時序模組對影片中的時序資訊進行建模。受到AnimateDiff的啟發,這是一個最初設計用於定制T2V任務的模型,它通過引入與T2I模型解耦的時序模組來建模時序信息,並保留了原始T2I模型的能力,能夠生成流暢的視頻。因此,研究者認為預先訓練的時序模組可以被視為通用的時序表徵,並可以應用於其他視訊生成場景,如I2V生成,而無需進行任何微調。因此,研究者直接使用預先訓練的AnimateDiff時序模組,並保持其參數固定。
Adapter for attention layers
#I2V任務中的另一個挑戰是保持輸入影像的ID資訊。目前的解決方案主要有兩種:一種是使用預先訓練的影像編碼器對輸入影像進行編碼,並透過交叉關注機制將編碼後的特徵注入到模型中以指導去噪過程;另一種是將影像與有雜訊的輸入在通道維度上進行拼接,然後一起輸入到後續的網路中。然而,前一種方法由於影像編碼器難以捕捉底層訊息,可能導致產生的視訊ID發生變化;而後一種方法往往需要改變T2I模型的結構和參數,訓練代價高且相容性較差。
為了解決上述問題,研究者提出了 I2V-Adapter。具體來說,研究者將輸入圖像與noised input 並行輸入給網絡,在模型的spatial block 中,所有幀都會額外查詢一次首幀信息,即key,value 特徵都來自於不加噪的首幀,輸出結果與原始模型的self attention 相加。此模組中的輸出映射矩陣使用零初始化並且只訓練輸出映射矩陣與 query 映射矩陣。為了進一步加強模型對輸入影像語意資訊的理解,研究者引入了預先訓練的 content adapter(本文使用的是 IP-Adapter [8])注入影像的語意特徵。
Frame Similarity Prior
#為了進一步增強產生結果的穩定性,研究者提出了幀間相似性先驗,用於在生成影片的穩定性和運動強度之間取得平衡。其關鍵假設是,在相對較低的高斯雜訊水準上,具有雜訊的第一幀和帶雜訊的後續幀足夠接近,如下圖所示:
於是,研究者假設所有幀結構相似,並在加入一定量的高斯雜訊後變得難以區分,因此可以把加噪後的輸入影像作為後續影格的先驗輸入。為了排除高頻資訊的誤導,研究者還使用了高斯模糊算子和隨機遮罩混合。具體來說,運算由下式給出:
#實驗結果
定量結果
本文計算了四種定量指標分別是DoverVQA (美學評分)、CLIPTemp (首幀一致性)、FlowScore (運動幅度) 以及WarppingError (運動誤差)用於評價生成影片的品質。表 1 顯示 I2V-Adapter 得到了最高的美學評分,在首幀一致性上也超過了所有對比方案。此外,I2V-Adapter 產生的影片有著最大的運動幅度,並且相對較低的運動誤差,表明此模型的能夠產生更動態的影片並且同時保持時序運動的準確性。
定性結果
#Image Animation(左為輸入,右為輸出):
w/ Personalized T2Is(左為輸入,右為輸出):
##w/ ControlNet(左為輸入,右為輸出):
總結
本文提出了 I2V-Adapter,一個即插即用的輕量級模組,用於圖像到視訊生成任務。此方法保留原始T2V 模型的spatial block 與motion block 結構與參數固定,並行輸入不加噪的第一幀與加噪的後續幀,透過注意力機制允許所有幀與無雜訊的第一幀交互,從而產生時序連貫且與首格一致的影片。研究者透過定量與定性實驗證明了該方法在 I2V 任務上的有效性。此外,其解耦設計使得該方案能夠直接結合 DreamBooth、Lora 與 ControlNet 等模組,證明了該方案的兼容性,也促進了定制與可控圖像到視頻生成的研究。
以上是SD社群的I2V-Adapter:無需配置,即插即用,完美相容於圖生視訊插件的詳細內容。更多資訊請關注PHP中文網其他相關文章!

儘管它無法提供訓練有素的治療師的人類聯繫和直覺,但研究表明,許多人很樂意與相對無面和匿名的AI機器人分享他們的擔憂和擔憂。 這是否總是好我

人工智能(AI)是一種技術數十年的技術,正在徹底改變食品零售業。 從大規模的效率提高和成本降低到精簡的各種業務功能的流程,AI的影響是Undeniabl

讓我們來談談。 對創新的AI突破的分析是我正在進行的AI中正在進行的《福布斯》列覆蓋範圍的一部分,包括識別和解釋各種有影響力的AI複雜性(請參閱此處的鏈接)。此外,對於我的comp

保持專業形象需要偶爾的衣櫃更新。 在線購物方便時,它缺乏面對面嘗試的確定性。 我的解決方案? AI驅動的個性化。 我設想AI助手策劃服裝Selecti

谷歌翻譯新增語言學習功能 據Android Authority報導,應用專家AssembleDebug發現,最新版本的谷歌翻譯應用包含一個新的“練習”模式的測試代碼,旨在幫助用戶通過個性化活動來提高他們的語言技能。此功能目前對用戶不可見,但AssembleDebug能夠部分激活它並查看其一些新的用戶界面元素。 激活後,該功能會在屏幕底部添加一個新的“畢業帽”圖標,標有“Beta”徽章,表明“練習”功能最初將以實驗形式發布。 相關的彈出提示顯示“練習為你量身定制的活動!”,這意味著谷歌將生成定制的

麻省理工學院的研究人員正在開發Nanda,這是為AI代理設計的開創性的Web協議。 Nanda的縮寫是網絡代理和分散的AI,通過添加Internet功能,使AI Agen能夠構建人類的模型上下文協議(MCP)。

Meta的最新冒險:與Chatgpt競爭的AI應用程序 Facebook,Instagram,WhatsApp和Threads的母公司Meta正在啟動新的AI功能應用程序。 這個獨立的應用程序Meta AI旨在直接與Openai的Chatgpt競爭。 槓桿

導航AI網絡攻擊的上升潮流 最近,CISO的傑森·克林頓(Jason Clinton)擬人化,強調了與非人類身份相關的新興風險 - 作為機器對機器的通信增殖,維護這些“身份”


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

SAP NetWeaver Server Adapter for Eclipse
將Eclipse與SAP NetWeaver應用伺服器整合。

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器

禪工作室 13.0.1
強大的PHP整合開發環境

SublimeText3 英文版
推薦:為Win版本,支援程式碼提示!