Rumah  >  Artikel  >  Peranti teknologi  >  StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

WBOY
WBOYke hadapan
2024-03-27 15:17:001064semak imbas

Tembakan luas medan perang, stormtroopers berlari...

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

prompt: Tembakan lebar medan perang, stormtroopers berlari...

Video 2 minit ini dengan teks 1200 bingkai adalah video -ke-video) model. Walaupun kesan AI masih jelas, watak dan adegan menunjukkan konsistensi yang agak baik.

Bagaimana ini dilakukan? Anda harus tahu bahawa walaupun kualiti penjanaan dan kualiti penjajaran teks teknologi video Vincent agak baik sejak beberapa tahun kebelakangan ini, kebanyakan kaedah sedia ada memfokuskan pada penjanaan video pendek (biasanya 16 atau 24 bingkai panjang). Walau bagaimanapun, kaedah sedia ada yang berfungsi untuk video pendek sering gagal berfungsi dengan video panjang (≥ 64 bingkai).

Malah menghasilkan urutan pendek selalunya memerlukan latihan yang mahal, seperti langkah latihan melebihi 260K dan saiz kelompok melebihi 4500. Jika anda tidak melatih video yang lebih panjang dan menggunakan penjana video pendek untuk menghasilkan video yang panjang, video panjang yang terhasil selalunya tidak berkualiti. Kaedah autoregresif sedia ada (menjana video pendek baharu dengan menggunakan beberapa bingkai terakhir video pendek, dan kemudian mensintesis video panjang) juga mempunyai beberapa masalah seperti penukaran adegan yang tidak konsisten.

Untuk mengimbangi kelemahan kaedah sedia ada, Picsart AI Research dan institusi lain bersama-sama mencadangkan kaedah video Vincent baharu: StreamingT2V. Kaedah ini menggunakan teknologi autoregresif dan menggabungkannya dengan modul memori jangka pendek yang panjang, yang membolehkannya menjana video panjang dengan koheren temporal yang kuat. . https ://streamingt2v.github.io/

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

Berikut ialah hasil penjanaan video 600 bingkai 1 minit Anda dapat melihat bahawa lebah dan bunga mempunyai konsistensi yang sangat baik:
  • Oleh itu, pasukan mengemukakan. syarat Modul Perhatian (CAM). CAM menggunakan mekanisme perhatiannya untuk menyepadukan maklumat daripada bingkai sebelumnya secara berkesan untuk menghasilkan bingkai baharu, dan boleh mengendalikan gerakan dalam bingkai baharu secara bebas tanpa dihadkan oleh struktur atau bentuk bingkai sebelumnya.
  • Untuk menyelesaikan masalah perubahan penampilan orang dan objek dalam video yang dihasilkan, pasukan itu juga mencadangkan modul pemeliharaan penampilan (APM): ia boleh mengekstrak maklumat penampilan objek atau adegan global daripada imej awal ( bingkai sauh), dan gunakan maklumat ini untuk mengawal selia proses penjanaan video untuk semua blok video.
  • Untuk meningkatkan lagi kualiti dan resolusi penjanaan video panjang, pasukan itu menambah baik model peningkatan video untuk tugas penjanaan autoregresif. Untuk melakukan ini, pasukan memilih model video Vincent resolusi tinggi dan menggunakan kaedah SDEdit untuk meningkatkan kualiti 24 blok video berturut-turut (8 daripadanya bertindih).

Untuk menjadikan peralihan peningkatan blok video lancar, mereka juga mereka bentuk kaedah pengadunan rawak yang menggabungkan blok video dipertingkat bertindih dengan cara yang lancar.

Kaedah

Mula-mula, hasilkan video 5 saat pada resolusi 256 × 256 (16fps) dan kemudian tingkatkan kepada resolusi yang lebih tinggi (720 × 720). Rajah 2 menunjukkan aliran kerja lengkapnya.

Bahagian penjanaan video panjang terdiri daripada Peringkat Permulaan dan Peringkat T2V Penstriman.

Antaranya, fasa permulaan menggunakan model video Vincent yang telah dilatih (contohnya, anda boleh menggunakan Modelscope) untuk menjana blok video 16 bingkai pertama manakala fasa video Vincent penstriman menjana bingkai seterusnya secara autoregresif Kandungan baharu.

Untuk proses autoregresif (lihat Rajah 3), CAM yang baru dicadangkan oleh pasukan boleh menggunakan maklumat jangka pendek 8 bingkai terakhir bagi blok video sebelumnya untuk mencapai pertukaran yang lancar antara blok. Di samping itu, mereka juga akan menggunakan modul APM yang baru dicadangkan untuk mengekstrak maklumat jangka panjang rangka sauh tetap, supaya proses autoregresif dapat mengatasi perubahan dalam perkara dan butiran adegan semasa proses penjanaan.

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

Selepas menjana video panjang (80, 240, 600, 1200 atau lebih bingkai), mereka kemudiannya meningkatkan kualiti video melalui Peringkat Penapisan Penstriman. Proses ini menggunakan model video pendek Vison beresolusi tinggi (mis., MS-Vid2Vid-XL) secara autoregresif, ditambah dengan kaedah campuran stokastik yang baru dicadangkan untuk pemprosesan blok video yang lancar. Tambahan pula, langkah terakhir tidak memerlukan latihan tambahan, yang menjadikan kaedah ini lebih murah dari segi pengiraan.

Modul Perhatian Bersyarat

Pertama, model video Vincent (pendek) pra-latihan yang digunakan ditandakan sebagai Video-LDM. Modul perhatian (CAM) terdiri daripada pengekstrak ciri dan penyuntik ciri yang disuntik ke dalam Video-LDM UNet.

Pengekstrak ciri menggunakan pengekod imej bingkai demi bingkai, diikuti oleh lapisan pengekod yang sama yang digunakan oleh Video-LDM UNet sehingga lapisan tengah (dan dimulakan mengikut berat UNet).

Untuk suntikan ciri, reka bentuk di sini adalah untuk membenarkan setiap sambungan lompatan jarak jauh dalam UNet memfokuskan pada ciri sepadan yang dihasilkan oleh CAM melalui perhatian silang.

Modul Pemeliharaan Penampilan

Modul APM menyepadukan memori jangka panjang ke dalam proses penjanaan video dengan menggunakan maklumat daripada bingkai sauh tetap. Ini membantu mengekalkan ciri pemandangan dan objek semasa penjanaan tampalan video.

Untuk APM mengimbangi pemprosesan maklumat panduan yang diberikan oleh bingkai sauh dan arahan teks, pasukan membuat dua penambahbaikan: (1) Campurkan token imej CLIP bingkai sauh dengan token teks CLIP arahan teks ; (2) Berat diperkenalkan untuk setiap lapisan perhatian silang untuk menggunakan perhatian silang. . Proses ini dilakukan dengan terlebih dahulu menambahkan sejumlah besar hingar pada blok video input, dan kemudian menggunakan model penyebaran video Vincent ini untuk melakukan pemprosesan denoising.

Walau bagaimanapun, kaedah ini tidak mencukupi untuk menyelesaikan masalah ketidakpadanan peralihan antara blok video.

Untuk tujuan ini, penyelesaian pasukan adalah kaedah pencampuran rawak. Sila rujuk kertas asal untuk butiran khusus.

Eksperimen

Dalam eksperimen, metrik penilaian yang digunakan oleh pasukan termasuk: Skor SCuts untuk menilai ketekalan temporal, ralat pintal sedar gerakan (MAWE) untuk menilai ralat gerakan dan twist, skor persamaan teks-imej CLIP (CLIP) dan skor estetik (AE) untuk menilai kualiti penjajaran teks.

Kajian Ablasi

Untuk menilai keberkesanan pelbagai komponen baharu, pasukan melakukan kajian ablasi pada 75 gesaan yang diambil secara rawak daripada set pengesahan.

CAM untuk pemprosesan bersyarat: CAM membantu model menjana video yang lebih konsisten, dengan skor SCuts 88% lebih rendah daripada model garis dasar lain dalam perbandingan.

Memori jangka panjang: Rajah 6 menunjukkan bahawa ingatan jangka panjang boleh membantu mengekalkan kestabilan ciri objek dan adegan semasa proses penjanaan autoregresif.

Pada metrik penilaian kuantitatif (skor pengenalan semula orang), APM mencapai peningkatan 20%.

Pencampuran rawak untuk peningkatan video: Berbanding dengan dua penanda aras yang lain, pencampuran rawak boleh membawa peningkatan kualiti yang ketara Ia juga boleh dilihat daripada Rajah 4: StreamingT2V boleh mendapatkan peralihan yang lebih lancar.

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

StreamingT2V berbanding model garis dasar

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

Pasukan membandingkan penyepaduan StreamingT2V yang dipertingkatkan di atas dengan pelbagai model-Generatif imej, termasuk kaedah Igresif-Generatif-imej penilaian kualitatif XL, SVD, DynamiCrafter-XL, SEINE, kaedah video ke video SparseControl, kaedah teks ke video panjang FreeNoise.

Penilaian kuantitatif: Seperti yang dapat dilihat daripada Jadual 8, penilaian kuantitatif pada set ujian menunjukkan bahawa StreamingT2V berprestasi terbaik dari segi peralihan blok video yang lancar dan konsistensi gerakan. Skor MAWE bagi kaedah baharu juga jauh lebih baik daripada semua kaedah lain - malah lebih 50% lebih rendah daripada SEINE kedua terbaik. Tingkah laku yang sama dilihat dalam skor SCuts.

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

Selain itu, StreamingT2V hanya lebih rendah sedikit daripada SparseCtrl dari segi kualiti bingkai tunggal video yang dihasilkan. Ini menunjukkan bahawa kaedah baharu ini mampu menjana video panjang berkualiti tinggi dengan ketekalan temporal dan dinamik gerakan yang lebih baik daripada kaedah perbandingan lain.

Penilaian kualitatif: Rajah di bawah menunjukkan perbandingan kesan StreamingT2V dengan kaedah lain Dapat dilihat bahawa kaedah baru dapat mengekalkan konsistensi yang lebih baik sambil memastikan kesan dinamik video.

StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka

Untuk butiran penyelidikan lanjut, sila rujuk kertas asal.

Atas ialah kandungan terperinci StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam