


StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka
Tembakan luas medan perang, stormtroopers berlari...
prompt: Tembakan lebar medan perang, stormtroopers berlari...
Video 2 minit ini dengan teks 1200 bingkai adalah video -ke-video) model. Walaupun kesan AI masih jelas, watak dan adegan menunjukkan konsistensi yang agak baik.
Bagaimana ini dilakukan? Anda harus tahu bahawa walaupun kualiti penjanaan dan kualiti penjajaran teks teknologi video Vincent agak baik sejak beberapa tahun kebelakangan ini, kebanyakan kaedah sedia ada memfokuskan pada penjanaan video pendek (biasanya 16 atau 24 bingkai panjang). Walau bagaimanapun, kaedah sedia ada yang berfungsi untuk video pendek sering gagal berfungsi dengan video panjang (≥ 64 bingkai).
Malah menghasilkan urutan pendek selalunya memerlukan latihan yang mahal, seperti langkah latihan melebihi 260K dan saiz kelompok melebihi 4500. Jika anda tidak melatih video yang lebih panjang dan menggunakan penjana video pendek untuk menghasilkan video yang panjang, video panjang yang terhasil selalunya tidak berkualiti. Kaedah autoregresif sedia ada (menjana video pendek baharu dengan menggunakan beberapa bingkai terakhir video pendek, dan kemudian mensintesis video panjang) juga mempunyai beberapa masalah seperti penukaran adegan yang tidak konsisten.
Untuk mengimbangi kelemahan kaedah sedia ada, Picsart AI Research dan institusi lain bersama-sama mencadangkan kaedah video Vincent baharu: StreamingT2V. Kaedah ini menggunakan teknologi autoregresif dan menggabungkannya dengan modul memori jangka pendek yang panjang, yang membolehkannya menjana video panjang dengan koheren temporal yang kuat. . https ://streamingt2v.github.io/
- Oleh itu, pasukan mengemukakan. syarat Modul Perhatian (CAM). CAM menggunakan mekanisme perhatiannya untuk menyepadukan maklumat daripada bingkai sebelumnya secara berkesan untuk menghasilkan bingkai baharu, dan boleh mengendalikan gerakan dalam bingkai baharu secara bebas tanpa dihadkan oleh struktur atau bentuk bingkai sebelumnya.
- Untuk menyelesaikan masalah perubahan penampilan orang dan objek dalam video yang dihasilkan, pasukan itu juga mencadangkan modul pemeliharaan penampilan (APM): ia boleh mengekstrak maklumat penampilan objek atau adegan global daripada imej awal ( bingkai sauh), dan gunakan maklumat ini untuk mengawal selia proses penjanaan video untuk semua blok video.
- Untuk meningkatkan lagi kualiti dan resolusi penjanaan video panjang, pasukan itu menambah baik model peningkatan video untuk tugas penjanaan autoregresif. Untuk melakukan ini, pasukan memilih model video Vincent resolusi tinggi dan menggunakan kaedah SDEdit untuk meningkatkan kualiti 24 blok video berturut-turut (8 daripadanya bertindih).
Untuk menjadikan peralihan peningkatan blok video lancar, mereka juga mereka bentuk kaedah pengadunan rawak yang menggabungkan blok video dipertingkat bertindih dengan cara yang lancar.
Kaedah
Mula-mula, hasilkan video 5 saat pada resolusi 256 × 256 (16fps) dan kemudian tingkatkan kepada resolusi yang lebih tinggi (720 × 720). Rajah 2 menunjukkan aliran kerja lengkapnya.
Bahagian penjanaan video panjang terdiri daripada Peringkat Permulaan dan Peringkat T2V Penstriman.
Antaranya, fasa permulaan menggunakan model video Vincent yang telah dilatih (contohnya, anda boleh menggunakan Modelscope) untuk menjana blok video 16 bingkai pertama manakala fasa video Vincent penstriman menjana bingkai seterusnya secara autoregresif Kandungan baharu.
Untuk proses autoregresif (lihat Rajah 3), CAM yang baru dicadangkan oleh pasukan boleh menggunakan maklumat jangka pendek 8 bingkai terakhir bagi blok video sebelumnya untuk mencapai pertukaran yang lancar antara blok. Di samping itu, mereka juga akan menggunakan modul APM yang baru dicadangkan untuk mengekstrak maklumat jangka panjang rangka sauh tetap, supaya proses autoregresif dapat mengatasi perubahan dalam perkara dan butiran adegan semasa proses penjanaan.
Selepas menjana video panjang (80, 240, 600, 1200 atau lebih bingkai), mereka kemudiannya meningkatkan kualiti video melalui Peringkat Penapisan Penstriman. Proses ini menggunakan model video pendek Vison beresolusi tinggi (mis., MS-Vid2Vid-XL) secara autoregresif, ditambah dengan kaedah campuran stokastik yang baru dicadangkan untuk pemprosesan blok video yang lancar. Tambahan pula, langkah terakhir tidak memerlukan latihan tambahan, yang menjadikan kaedah ini lebih murah dari segi pengiraan.
Modul Perhatian Bersyarat
Pertama, model video Vincent (pendek) pra-latihan yang digunakan ditandakan sebagai Video-LDM. Modul perhatian (CAM) terdiri daripada pengekstrak ciri dan penyuntik ciri yang disuntik ke dalam Video-LDM UNet.
Pengekstrak ciri menggunakan pengekod imej bingkai demi bingkai, diikuti oleh lapisan pengekod yang sama yang digunakan oleh Video-LDM UNet sehingga lapisan tengah (dan dimulakan mengikut berat UNet).
Untuk suntikan ciri, reka bentuk di sini adalah untuk membenarkan setiap sambungan lompatan jarak jauh dalam UNet memfokuskan pada ciri sepadan yang dihasilkan oleh CAM melalui perhatian silang.
Modul Pemeliharaan Penampilan
Modul APM menyepadukan memori jangka panjang ke dalam proses penjanaan video dengan menggunakan maklumat daripada bingkai sauh tetap. Ini membantu mengekalkan ciri pemandangan dan objek semasa penjanaan tampalan video.
Untuk APM mengimbangi pemprosesan maklumat panduan yang diberikan oleh bingkai sauh dan arahan teks, pasukan membuat dua penambahbaikan: (1) Campurkan token imej CLIP bingkai sauh dengan token teks CLIP arahan teks ; (2) Berat diperkenalkan untuk setiap lapisan perhatian silang untuk menggunakan perhatian silang. . Proses ini dilakukan dengan terlebih dahulu menambahkan sejumlah besar hingar pada blok video input, dan kemudian menggunakan model penyebaran video Vincent ini untuk melakukan pemprosesan denoising.
Walau bagaimanapun, kaedah ini tidak mencukupi untuk menyelesaikan masalah ketidakpadanan peralihan antara blok video.
Untuk tujuan ini, penyelesaian pasukan adalah kaedah pencampuran rawak. Sila rujuk kertas asal untuk butiran khusus.Eksperimen
Dalam eksperimen, metrik penilaian yang digunakan oleh pasukan termasuk: Skor SCuts untuk menilai ketekalan temporal, ralat pintal sedar gerakan (MAWE) untuk menilai ralat gerakan dan twist, skor persamaan teks-imej CLIP (CLIP) dan skor estetik (AE) untuk menilai kualiti penjajaran teks.
Kajian Ablasi
Untuk menilai keberkesanan pelbagai komponen baharu, pasukan melakukan kajian ablasi pada 75 gesaan yang diambil secara rawak daripada set pengesahan.
CAM untuk pemprosesan bersyarat: CAM membantu model menjana video yang lebih konsisten, dengan skor SCuts 88% lebih rendah daripada model garis dasar lain dalam perbandingan.
Memori jangka panjang: Rajah 6 menunjukkan bahawa ingatan jangka panjang boleh membantu mengekalkan kestabilan ciri objek dan adegan semasa proses penjanaan autoregresif.
Pada metrik penilaian kuantitatif (skor pengenalan semula orang), APM mencapai peningkatan 20%.
Pencampuran rawak untuk peningkatan video: Berbanding dengan dua penanda aras yang lain, pencampuran rawak boleh membawa peningkatan kualiti yang ketara Ia juga boleh dilihat daripada Rajah 4: StreamingT2V boleh mendapatkan peralihan yang lebih lancar.
StreamingT2V berbanding model garis dasar
Penilaian kuantitatif: Seperti yang dapat dilihat daripada Jadual 8, penilaian kuantitatif pada set ujian menunjukkan bahawa StreamingT2V berprestasi terbaik dari segi peralihan blok video yang lancar dan konsistensi gerakan. Skor MAWE bagi kaedah baharu juga jauh lebih baik daripada semua kaedah lain - malah lebih 50% lebih rendah daripada SEINE kedua terbaik. Tingkah laku yang sama dilihat dalam skor SCuts. Selain itu, StreamingT2V hanya lebih rendah sedikit daripada SparseCtrl dari segi kualiti bingkai tunggal video yang dihasilkan. Ini menunjukkan bahawa kaedah baharu ini mampu menjana video panjang berkualiti tinggi dengan ketekalan temporal dan dinamik gerakan yang lebih baik daripada kaedah perbandingan lain. Penilaian kualitatif: Rajah di bawah menunjukkan perbandingan kesan StreamingT2V dengan kaedah lain Dapat dilihat bahawa kaedah baru dapat mengekalkan konsistensi yang lebih baik sambil memastikan kesan dinamik video. Untuk butiran penyelidikan lanjut, sila rujuk kertas asal.
Atas ialah kandungan terperinci StreamingT2V, penjana video panjang dua minit dan 1,200 bingkai, ada di sini, dan kod itu akan menjadi sumber terbuka. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Para saintis telah mengkaji secara meluas rangkaian saraf manusia dan mudah (seperti yang ada di C. elegans) untuk memahami fungsi mereka. Walau bagaimanapun, soalan penting timbul: Bagaimana kita menyesuaikan rangkaian saraf kita sendiri untuk berfungsi dengan berkesan bersama -sama dengan novel AI s

Gemini Google Advanced: Tahap Langganan Baru di Horizon Pada masa ini, mengakses Gemini Advanced memerlukan pelan premium AI $ 19.99/bulan. Walau bagaimanapun, laporan Pihak Berkuasa Android menunjukkan perubahan yang akan datang. Kod dalam google terkini p

Walaupun gembar -gembur di sekitar keupayaan AI maju, satu cabaran penting bersembunyi dalam perusahaan AI perusahaan: kesesakan pemprosesan data. Walaupun CEO merayakan kemajuan AI, jurutera bergelut dengan masa pertanyaan yang perlahan, saluran paip yang terlalu banyak, a

Dokumen pengendalian tidak lagi hanya mengenai pembukaan fail dalam projek AI anda, ia mengenai mengubah kekacauan menjadi kejelasan. Dokumen seperti PDF, PowerPoints, dan perkataan banjir aliran kerja kami dalam setiap bentuk dan saiz. Mengambil semula berstruktur

Memanfaatkan kuasa Kit Pembangunan Ejen Google (ADK) untuk membuat ejen pintar dengan keupayaan dunia sebenar! Tutorial ini membimbing anda melalui membina ejen perbualan menggunakan ADK, menyokong pelbagai model bahasa seperti Gemini dan GPT. W

Ringkasan: Model bahasa kecil (SLM) direka untuk kecekapan. Mereka lebih baik daripada model bahasa yang besar (LLM) dalam persekitaran yang kurang sensitif, masa nyata dan privasi. Terbaik untuk tugas-tugas berasaskan fokus, terutamanya di mana kekhususan domain, kawalan, dan tafsiran lebih penting daripada pengetahuan umum atau kreativiti. SLMs bukan pengganti LLM, tetapi mereka sesuai apabila ketepatan, kelajuan dan keberkesanan kos adalah kritikal. Teknologi membantu kita mencapai lebih banyak sumber. Ia sentiasa menjadi promoter, bukan pemandu. Dari era enjin stim ke era gelembung internet, kuasa teknologi terletak pada tahap yang membantu kita menyelesaikan masalah. Kecerdasan Buatan (AI) dan AI Generatif Baru -baru ini tidak terkecuali

Memanfaatkan kekuatan Google Gemini untuk Visi Komputer: Panduan Komprehensif Google Gemini, chatbot AI terkemuka, memanjangkan keupayaannya di luar perbualan untuk merangkumi fungsi penglihatan komputer yang kuat. Panduan ini memperincikan cara menggunakan

Landskap AI pada tahun 2025 adalah elektrik dengan kedatangan Flash Gemini 2.0 Google dan Openai's O4-mini. Model-model canggih ini, yang dilancarkan minggu-minggu, mempunyai ciri-ciri canggih yang setanding dan skor penanda aras yang mengagumkan. Perbandingan mendalam ini


Alat AI Hot

Undresser.AI Undress
Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover
Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool
Gambar buka pakaian secara percuma

Clothoff.io
Penyingkiran pakaian AI

Video Face Swap
Tukar muka dalam mana-mana video dengan mudah menggunakan alat tukar muka AI percuma kami!

Artikel Panas

Alat panas

Muat turun versi mac editor Atom
Editor sumber terbuka yang paling popular

Dreamweaver CS6
Alat pembangunan web visual

EditPlus versi Cina retak
Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

Dreamweaver Mac版
Alat pembangunan web visual

SublimeText3 versi Inggeris
Disyorkan: Versi Win, menyokong gesaan kod!
