隨著數位人概念的火爆、生成技術的不斷發展,讓照片裡的人物跟著音訊的輸入動起來也不再是難題。
不過目前「透過人臉影像和一段語音音訊來產生會說話的人物頭像影片」仍存在諸多問題,例如頭部運動不自然、臉部表情扭曲、影片和圖片中的人物面部差異過大等問題。
最近來自西安交通大學等的研究人員提出了SadTalker模型,在三維運動場中進行學習從音頻中生成3DMM的3D運動係數(頭部姿勢、表情),並使用一個全新的3D臉部渲染器來產生頭部運動。
論文連結:https://arxiv.org/pdf/2211.12194.pdf
#專案首頁:https://sadtalker.github.io/
音訊可以是英文、中文、歌曲,影片裡的角色還可以控制眨眼頻率!
為了學習真實的運動係數,研究人員明確地對音訊和不同類型的運動係數之間的聯繫進行單獨建模:透過蒸餾係數和3D渲染的臉部,從音頻中學習準確的面部表情;透過條件VAE設計PoseVAE來合成不同風格的頭部運動。
最後使用產生的三維運動係數被映射到人臉渲染的無監督三維關鍵點空間,並合成最終視訊。
最後在實驗中證明了該方法在運動同步和視訊品質方面實現了最先進的性能。
目前stable-diffusion-webui的外掛也已經發佈!
照片音訊=視訊
數位人創作、視訊會議等多個領域都需要「用語音音訊讓靜態照片動起來」的技術,但目前來說這仍然是一項非常有挑戰性的任務。
先前的工作主要集中在生成「唇部運動」,因為嘴唇的動作與語音之間的關係最強,其他工作也在嘗試產生其他相關運動(如頭部姿勢)的人臉視頻,不過生成視頻的質量仍然非常不自然,並受到偏好姿勢、模糊、身份修改和麵部扭曲的限制。
另一種流行的方法是基於latent的人臉動畫,主要關注在對話式人臉動畫中特定類別的運動,同樣很難合成高質量的視頻,因為雖然三維臉部模型中包含高度解耦的表徵,可以用來單獨學習臉部不同位置的運動軌跡,但仍然會產生不準確的表情和不自然的運動序列。
基於上述觀察結果,研究人員提出了SadTalker(Stylized Audio-Driven Talking-head),透過隱式三維係數modulation的風格化音訊驅動的視訊生成系統。
為了實現這一目標,研究者將3DMM的運動係數視為中間表徵,並將任務分為兩個主要部分(表情和姿勢),旨在從音訊中產生更真實的運動係數(如頭部姿勢、嘴唇運動和眼睛眨動),並單獨學習每個運動以減少不確定性。
最後透過一個受face-vid2vid啟發設計的3D感知的臉部渲染來驅動來源影像。
3D臉部
因為現實中的影片都是在三維環境中拍攝的,所以三維資訊對於提高生成影片的真實性至關重要;不過之前的工作很少考慮三維空間,因為只從一張平面影像很難獲得原始的三維稀疏,而且高品質的臉部渲染器也很難設計。
受最近的單影像深度三維重建方法的啟發,研究人員將預測的三維形變模型(3DMMs)的空間作為中間表徵。
在3DMM中,三維臉部形狀S可以被解耦為:
##其中S是三維人臉的平均形狀,Uid和Uexp是LSFM morphable模型的身份和表情的正則,係數α(80維)和β(64維)分別描述人物身份和表情;為了保持姿勢的差異性,係數r和t分別表示頭部旋轉和平移;為了實現身份無關的係數生成,只將運動的參數建模為{β, r, t}。
即,從驅動的音訊中單獨學習頭部姿勢ρ=[r, t]和表情係數β,然後使用這些運動係數被隱式地調製臉部渲染用於最終的視頻合成。
透過音訊產生運動稀疏
#三維運動係數包含頭部姿勢和表情,其中頭部姿勢是全局運動,而表情是相對局部的,所以完全學習所有的係數會給網絡帶來巨大的不確定性,因為頭部姿勢與音頻的關係相對較弱,而嘴唇的運動則是與音頻高度關聯的。
所以SadTalker使用下面PoseVAE和ExpNet分別產生頭部姿勢和表情的運動。
ExpNet
#學習到一個可以「從音訊產生準確的表情係數」的通用模型是非常困難的,原因有二:
1)音頻到表情符號(audio-to-expression)不是對不同人物的一對一的映射任務;
2)表情係數中存在一些與音訊相關的動作,會影響到預測的準確性。
ExpNet的設計目標就是為了減少這些不確定性;至於人物身分問題,研究人員透過第一幀的表情係數將表情運動與特定的人物聯繫起來。
為了減少自然對話中其他臉部成分的運動權重,透過Wav2Lip和深度三維重建的預訓練網絡,只使用嘴唇運動係數(lip motion only)作為係數目標。
至於其他細微的臉部運動(如眼睛眨動)等,可以在渲染影像上的額外landmark損失中引入。
PoseVAE
#研究人員設計了一個基於VAE的模型以學習談話影片中真實的、身分相關(identity-aware)的風格化頭部動作。
在訓練中,使用基於編碼器-解碼器的結構對固定的n個幀進行姿勢VAE訓練,其中編碼器和解碼器都是兩層MLP,輸入包含一個連續的t幀頭部姿勢,將其嵌入到高斯分佈;在解碼器中,網路從採樣分佈中學習產生t幀姿勢。
要注意的是,PoseVAE並沒有直接產生姿勢,而是學習第一幀的條件姿勢的殘差,這也使得該方法在測試中能在第一幀的條件下產生更長、更穩定、更連續的頭部運動。
根據CVAE,PoseVAE中也增加了相應的音訊特徵和風格標識作為rhythm awareness和身份風格的條件。
模型使用KL散度來測量生成運動的分佈;使用均方損失和對抗性損失來確保生成的品質。
3D-aware臉部渲染
#在產生真實的三維運動係數後,研究人員透過一個精心設計的三維圖像動畫器來渲染最終的影片。
最近提出的圖像動畫方法face-vid2vid可以隱含地從單一圖像中學習3D信息,不過該方法需要一個真實的視頻作為動作驅動信號;而這篇論文中提出的臉部渲染可以透過3DMM係數來驅動。
研究者提出mappingNet來學習顯式3DMM運動係數(頭部姿勢和表情)和隱式無監督3D關鍵點之間的關係。
mappingNet透過幾個一維卷積層建立,類似PIRenderer一樣使用時間視窗的時間係數進行平滑處理;不同的是,研究人員發現PIRenderer中的人臉對齊運動係數將極大地影響音訊驅動的視訊產生的運動自然度,所以mappingNet只使用表情和頭部姿勢的係數。
訓練階段包含兩個步驟:首先遵循原始論文,以自我監督的方式訓練face-vid2vid;然後凍結外觀編碼器、canonical關鍵點估計器和圖像生成器的所有參數後,以重建的方式在ground truth視訊的3DMM係數上訓練mappingNet進行微調。
在無監督關鍵點的領域中使用L1損失進行監督訓練,並按照其原始實現方式給出最終生成的視頻。
實驗結果
為了證明方法的優越性,研究人員選取了Frechet Inception Distance(FID)和Cumulative Probability Blur Detection(CPBD)指標來評估影像的質量,其中FID主要評估生成幀的真實性,CPBD評估生成幀的清晰度。
為了評估身分保留程度,使用ArcFace來擷取影像的身份嵌入,然後計算來源影像和產生影格之間身分嵌入的餘弦相似度(CSIM)。
為了評估唇部同步和口型,研究人員評估了來自Wav2Lip的口型的感知差異,包括距離評分(LSE-D)和置信評分(LSE-C) 。
在頭部運動的評估中,使用Hopenet從生成的幀中提取的頭部運動特徵嵌入的標準偏差來計算生成頭部運動的多樣性;計算Beat Align Score來評估音訊和產生頭部移動的一致性。
在對比方法中,選取了幾種最先進的談話頭像產生方法,包括MakeItTalk、Audio2Head和音訊轉表情產生方法(Wav2Lip、PC-AVS),使用公開的checkpoint權重進行評估。
從實驗結果可以看出,文中提出的方法可以展現出更好的整體影片品質和頭部姿勢的多樣性,同時在唇部同步指標方面也顯示出與其他完全說話的頭部生成方法相當的性能。
研究人員認為,這些唇語同步指標對音訊太敏感了,以至於不自然的唇部運動可能會得到更好的分數,不過文中提出的方法取得了與真實影片相似的分數,也顯示了該方法的優勢。
不同方法產生的視覺結果中可以看到,該方法與原始目標影片的視覺品質非常相似,而且與預期的不同頭部姿勢也非常相似。
與其他方法相比,Wav2Lip產生了模糊的半臉;PC-AVS和Audio2Head很難保留來源影像的身份;Audio2Head只能產生正面說話的臉;MakeItTalk和Audio2Head由於二維扭曲而產生了扭曲的人臉視訊。
以上是圖片+音訊秒變影片!西交大開源SadTalker:頭、唇運動超自然,中英雙語全能,還會唱歌的詳細內容。更多資訊請關注PHP中文網其他相關文章!

在約翰·羅爾斯1971年具有開創性的著作《正義論》中,他提出了一種思想實驗,我們應該將其作為當今人工智能設計和使用決策的核心:無知的面紗。這一理念為理解公平提供了一個簡單的工具,也為領導者如何利用這種理解來公平地設計和實施人工智能提供了一個藍圖。 設想一下,您正在為一個新的社會制定規則。但有一個前提:您事先不知道自己在這個社會中將扮演什麼角色。您最終可能富有或貧窮,健康或殘疾,屬於多數派或邊緣少數群體。在這種“無知的面紗”下運作,可以防止規則制定者做出有利於自身的決策。相反,人們會更有動力製定公

許多公司專門從事機器人流程自動化(RPA),提供機器人以使重複的任務自動化 - UIPATH,在任何地方自動化,藍色棱鏡等。 同時,過程採礦,編排和智能文檔處理專業

AI的未來超越了簡單的單詞預測和對話模擬。 AI代理人正在出現,能夠獨立行動和任務完成。 這種轉變已經在諸如Anthropic的Claude之類的工具中很明顯。 AI代理:研究

快速的技術進步需要對工作未來的前瞻性觀點。 當AI超越生產力並開始塑造我們的社會結構時,會發生什麼? Topher McDougal即將出版的書Gaia Wakes:

產品分類通常涉及復雜的代碼,例如諸如統一系統(HS)等系統的“ HS 8471.30”,對於國際貿易和國內銷售至關重要。 這些代碼確保正確的稅收申請,影響每個INV

數據中心能源消耗與氣候科技投資的未來 本文探討了人工智能驅動的數據中心能源消耗激增及其對氣候變化的影響,並分析了應對這一挑戰的創新解決方案和政策建議。 能源需求的挑戰: 大型超大規模數據中心耗電量巨大,堪比數十萬個普通北美家庭的總和,而新興的AI超大規模中心耗電量更是數十倍於此。 2024年前八個月,微軟、Meta、谷歌和亞馬遜在AI數據中心建設和運營方面的投資已達約1250億美元(摩根大通,2024)(表1)。 不斷增長的能源需求既是挑戰也是機遇。據Canary Media報導,迫在眉睫的電

生成式AI正在徹底改變影視製作。 Luma的Ray 2模型,以及Runway的Gen-4、OpenAI的Sora、Google的Veo等眾多新模型,正在以前所未有的速度提升生成視頻的質量。這些模型能夠輕鬆製作出複雜的特效和逼真的場景,甚至連短視頻剪輯和具有攝像機感知的運動效果也已實現。雖然這些工具的操控性和一致性仍有待提高,但其進步速度令人驚嘆。 生成式視頻正在成為一種獨立的媒介形式。一些模型擅長動畫製作,另一些則擅長真人影像。值得注意的是,Adobe的Firefly和Moonvalley的Ma

ChatGPT用户体验下降:是模型退化还是用户期望? 近期,大量ChatGPT付费用户抱怨其性能下降,引发广泛关注。 用户报告称模型响应速度变慢,答案更简短、缺乏帮助,甚至出现更多幻觉。一些用户在社交媒体上表达了不满,指出ChatGPT变得“过于讨好”,倾向于验证用户观点而非提供批判性反馈。 这不仅影响用户体验,也给企业客户带来实际损失,例如生产力下降和计算资源浪费。 性能下降的证据 许多用户报告了ChatGPT性能的显著退化,尤其是在GPT-4(即将于本月底停止服务)等旧版模型中。 这


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

禪工作室 13.0.1
強大的PHP整合開發環境

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

ZendStudio 13.5.1 Mac
強大的PHP整合開發環境