網友:我都不敢想像一年後的視訊技術會有多先進。
五十秒的預告影片再次引發了AI圈的熱議
昨天,Runway宣布即將在視頻生成工具Gen-2中推出"Motion Brush"(運動筆刷)功能,這是一種全新的方法,可以控制生成內容的移動
#這次的玩法,甚至不需要輸入文字,只要有手就夠了。
從給定的圖片中任一張,只要用畫筆塗抹到某個地方,那個地方就會立刻動起來
無論是水流、雲彩、火焰、煙霧或人物,都能高度還原其動態。這不就是傳說中的「點石成金」嗎?
網友看完表示:我都不敢想像一年後的影片技術會有多先進…
在2023年初,從文字產生影片依然是一項相當困難的任務
Runway 曾在今年2 月推出了Gen-1,功能非常豐富,包括風格化、故事版、蒙版、渲染、自訂等等。看起來,這是一個專注於「編輯」影片的工具。
但今年 3 月,Gen-2 的問世改變了一切,它新增了文字、圖片產生影片功能。使用者只需輸入文字、圖像或文字加圖像的描述,Gen-2 即可在很短的時間內產生相關影片。
這是市場上首款可供大眾使用的文字轉視訊模型。例如,當輸入一段純文字「午後的陽光透過紐約閣樓的窗戶照進來」時,Gen-2會直接產生對應的影片
透過使用幾個提示和手勢,我們現在能夠產生高品質的影片並進行進一步編輯,不再需要複雜的影片編輯軟體和冗長的製作流程
如果將Midjourney和Gen-2這兩款文生圖神器和文生視訊神器結合使用,使用者完全可以不用動筆,就能夠直接創作出大片作品
當然,Gen-2 也有競爭對手,其中之一是Pika Labs,而且後者還是免費的
由Pika Labs 產生的是上述畫面
對於這種瘋狂磁碟區的態勢,一部分使用者是非常期待的:「2024 年,Pika Labs 和Runway 之間的拉扯一定很有意思。」
傳聞中,OpenAI 也有視訊生成相關的技術。有網友表示:「這讓我不禁好奇,OpenAI 的any-to-any 模型在生成影片方面究竟有多出色,因為這家公司通常都走在別人前面。」
未來的影片和電影製作產業,會因此而顛覆嗎?
以上是Runway的新特性「動態筆刷」再次震撼AI界:輕輕一畫,圖片即刻活動起來的詳細內容。更多資訊請關注PHP中文網其他相關文章!