Rumah > Artikel > Peranti teknologi > ICCV 2023 mengumumkan: Kertas popular seperti ControlNet dan SAM memenangi anugerah
Persidangan Antarabangsa mengenai Penglihatan Komputer (ICCV) dibuka di Paris, Perancis minggu ini
Sebagai persidangan akademik terbaik dunia dalam bidang penglihatan komputer, ICCV diadakan setiap dua tahun.
Kepopularan ICCV sentiasa setanding dengan CVPR, menetapkan tahap tertinggi baru berulang kali
Pada majlis perasmian hari ini, ICCV secara rasmi mengumumkan data kertas tahun ini: sejumlah 8068 penyerahan telah diserahkan kepada ICCV tahun ini, di mana 2160 telah diterima kadar penerimaan ialah 26.8%, iaitu lebih tinggi sedikit daripada kadar penerimaan ICCV 2021 sebelumnya iaitu 25.9%
Dari segi topik kertas, pegawai itu juga mengumumkan data yang berkaitan: teknologi 3D dengan pelbagai perspektif dan sensor adalah yang paling banyak. popular
Bahagian paling penting dalam majlis perasmian hari ini sudah pasti penyampaian anugerah. Seterusnya, kami akan mengumumkan pemenang kertas terbaik, pencalonan kertas terbaik dan kertas pelajar terbaik satu demi satu
Kertas terbaik tahun ini (Anugerah Marr) mempunyai dua kertas memenangi Anugerah anugerah
Kajian pertama dijalankan oleh penyelidik dari University of Toronto
Kandungan yang ditulis semula: University of Toronto ialah institusi yang bereputasiAbstrak: Artikel ini mempertimbangkan skala masa yang melampau , masalah pengimejan adegan dinamik secara serentak (saat kepada picoseconds), dan melakukannya secara pasif, tanpa banyak cahaya dan tanpa sebarang isyarat pemasaan daripada sumber cahaya yang memancarkannya. Memandangkan teknik penganggaran fluks sedia ada untuk kamera foton tunggal gagal dalam kes ini, kami membangunkan teori pengesanan fluks yang memperoleh cerapan daripada kalkulus stokastik untuk mendayakan fluks perubahan Masa bagi piksel yang dibina semula dalam aliran cap waktu pengesanan foton. Makalah ini mengeksploitasi teori ini untuk (1) menunjukkan bahawa kamera SPAD yang berjalan bebas pasif mempunyai lebar jalur frekuensi yang boleh dicapai dalam keadaan fluks rendah, merangkumi keseluruhan julat DC-to31 GHz, (2) menghasilkan algoritma pembinaan semula fluks domain Fu Leaf yang baru , dan (3) memastikan bahawa model hingar algoritma kekal sah walaupun untuk kiraan foton yang sangat rendah atau masa mati yang tidak boleh diabaikan. Kertas popular seperti ControlNet dan SAM memenangi anugerah, dan anugerah kertas ICCV 2023 diumumkan. Kertas kerja ini secara eksperimen menunjukkan potensi mekanisme pengimejan tak segerak ini: (1) kepada pemandangan imej yang diterangi serentak oleh sumber cahaya (mentol, projektor, laser berdenyut berbilang) yang beroperasi pada kelajuan yang berbeza dengan ketara, tanpa penyegerakan, (2) Pasif bukan talian -pemerolehan video penglihatan; (3) Rakam video jalur lebar ultra yang kemudiannya boleh dimainkan semula pada 30 Hz untuk menunjukkan pergerakan setiap hari, tetapi juga satu bilion kali lebih perlahan untuk menunjukkan perambatan cahaya itu sendiriPenulis: Zhang Lumin, Rao Anyi
Maneesh Institusi: Universiti StanfordAbstrak: Makalah ini mencadangkan seni bina rangkaian saraf hujung ke hujung ControlNet, yang boleh mengawal model resapan (seperti Resapan Stabil) dengan menambah syarat tambahan untuk meningkatkan kesan penjanaan graf dan Ia boleh menjana sepenuhnya -mewarnakan imej daripada lukisan garisan, menjana imej dengan struktur kedalaman yang sama, dan mengoptimumkan penjanaan tangan melalui mata kunci tangan.Idea teras ControlNet adalah untuk menambah beberapa syarat tambahan pada perihalan teks untuk mengawal model resapan (seperti Resapan Stabil), dengan itu mengawal pose watak, kedalaman, struktur gambar dan maklumat lain imej yang dihasilkan dengan lebih baik.
Ditulis semula sebagai: Kami boleh memasukkan syarat tambahan dalam bentuk imej untuk membolehkan model melakukan pengesanan tepi Canny, pengesanan kedalaman, segmentasi semantik, pengesanan garis transformasi Hough, pengesanan tepi bersarang keseluruhan (HED), pengecaman postur manusia, dsb. operasi dan mengekalkan maklumat ini dalam imej yang terhasil. Menggunakan model ini, kami boleh terus menukar lukisan garisan atau grafiti kepada imej berwarna penuh dan menghasilkan imej dengan struktur kedalaman yang sama Pada masa yang sama, kami juga boleh mengoptimumkan penjanaan tangan watak melalui mata kunci tangan
Sila. rujuk laporan pengenalan terperinci di laman web ini: Pengurangan dimensi AI mencecah pelukis manusia, graf Vincentian diperkenalkan ke ControlNet, dan maklumat kedalaman dan kelebihan digunakan semula sepenuhnya
Pada bulan April tahun ini, Meta mengeluarkan kertas yang dipanggil "Separate Everything (SAM)'s AI model, yang boleh menjana topeng untuk objek dalam mana-mana imej atau video. Teknologi ini mengejutkan penyelidik dalam bidang penglihatan komputer, malah ada yang menggelarkannya "CV tidak wujud lagi"
Kini, kertas berprofil tinggi ini telah dicalonkan untuk kertas terbaik. . Yang pertama ialah pembahagian interaktif, yang boleh digunakan untuk membahagikan mana-mana kelas objek tetapi memerlukan manusia untuk membimbing kaedah dengan menapis topeng secara berulang. Yang kedua ialah pembahagian automatik, yang boleh digunakan untuk membahagikan kategori objek khusus yang dipratentukan (seperti kucing atau kerusi), tetapi memerlukan sejumlah besar objek beranotasi secara manual untuk latihan (seperti beribu-ribu atau bahkan berpuluh-puluh ribu contoh kucing tersegmen) . Kedua-dua kaedah ini tidak menyediakan kaedah segmentasi universal dan automatik sepenuhnya
Untuk meringkaskan, ciri ini menjadikan SAM. boleh menyesuaikan diri dengan tugas dan domain baharu. Fleksibiliti ini unik dalam bidang pembahagian imejSila rujuk laporan tapak ini untuk butiran: CV tidak lagi wujud? Meta mengeluarkan model AI "Split Everything", CV mungkin menyambut detik GPT-3
Kertas Pelajar Terbaik
Penyelidikan telah disiapkan bersama oleh penyelidik dari Cornell University, Google Research dan UC Berkeley, dengan seorang pengarang It's Qianqian Wang, pelajar PhD dari Cornell Tech. Mereka bersama-sama mencadangkan OmniMotion, perwakilan gerakan yang lengkap dan konsisten di peringkat global, dan mencadangkan kaedah pengoptimuman masa ujian baharu untuk melaksanakan anggaran gerakan yang tepat dan lengkap bagi setiap piksel dalam video. Alamat kertas:https://omnimotion.github.io/
OmniMotion ialah teknologi baharu yang dicadangkan oleh penyelidikan yang menggunakan volum kanonik kuasi-3D untuk mencirikan video. OmniMotion dapat menjejaki setiap piksel melalui bijection antara ruang tempatan dan ruang kanonik. Perwakilan ini bukan sahaja memastikan konsistensi global dan penjejakan gerakan walaupun objek tertutup, tetapi juga membolehkan pemodelan mana-mana gabungan gerakan kamera dan objek. Percubaan telah membuktikan bahawa kaedah OmniMotion adalah jauh lebih baik daripada kaedah SOTA sedia ada dalam prestasi
Untuk pengenalan terperinci, sila rujuk laporan di tapak ini: Jejaki setiap piksel pada bila-bila masa, di mana-mana, walaupun ia disekat, Algoritma video "jejaki segalanya" Di sini kami datang
Sudah tentu, sebagai tambahan kepada kertas kerja yang memenangi anugerah ini, terdapat banyak kertas kerja cemerlang dalam ICCV tahun ini yang patut diberi perhatian anda. Akhir sekali, berikut ialah senarai awal 17 kertas yang memenangi anugerah.
Atas ialah kandungan terperinci ICCV 2023 mengumumkan: Kertas popular seperti ControlNet dan SAM memenangi anugerah. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!