Rumah  >  Artikel  >  Peranti teknologi  >  ICCV 2023 Oral |. Bagaimana untuk menjalankan latihan segmen ujian di dunia terbuka? Kaedah latihan kendiri berdasarkan pengembangan prototaip dinamik

ICCV 2023 Oral |. Bagaimana untuk menjalankan latihan segmen ujian di dunia terbuka? Kaedah latihan kendiri berdasarkan pengembangan prototaip dinamik

王林
王林ke hadapan
2023-09-17 21:21:06657semak imbas

Apabila mempromosikan pelaksanaan kaedah persepsi berasaskan penglihatan, meningkatkan keupayaan generalisasi model adalah asas penting. Latihan/Penyesuaian Masa Ujian (Latihan/Penyesuaian Masa Ujian) membolehkan model menyesuaikan diri dengan pengedaran data domain sasaran yang tidak diketahui dengan melaraskan berat parameter model semasa fasa ujian. Kaedah TTT/TTA sedia ada biasanya menumpukan pada peningkatan prestasi latihan segmen ujian di bawah data domain sasaran dalam persekitaran tertutup Walau bagaimanapun, dalam banyak senario aplikasi, domain sasaran mudah dicemari oleh data luar domain yang kuat (OOD Kuat). contoh, kategori data yang tidak berkaitan secara semantik. Dalam kes ini, juga dikenali sebagai Latihan Segmen Ujian Dunia Terbuka (OWTTT), TTT/TTA sedia ada biasanya mengelaskan secara paksa data luar domain yang kuat ke dalam kategori yang diketahui, akhirnya mengganggu data luar domain yang lemah (OOD yang lemah) seperti Keupayaan pengecaman imej yang terganggu oleh bunyi

Baru-baru ini, Universiti Teknologi China Selatan dan pasukan A*STAR mencadangkan penetapan latihan segmen ujian dunia terbuka buat kali pertama, dan melancarkan kaedah latihan yang sepadan

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
    Kertas : https://arxiv.org/abs/2308.09942
  • Kandungan yang perlu ditulis semula ialah: Pautan kod: https://github.com/Yushu-Li/OWTTT
  • Artikel ini mula-mula mencadangkan ambang penyesuaian yang kuat Kaedah penapisan sampel data luar domain meningkatkan keteguhan kaedah TTT latihan kendiri dalam dunia terbuka. Kaedah ini seterusnya mencadangkan kaedah untuk mencirikan sampel luar domain yang kuat berdasarkan prototaip yang dilanjutkan secara dinamik untuk menambah baik kesan pemisahan data luar domain yang lemah/kuat. Akhirnya, latihan kendiri dikekang oleh penjajaran pengedaran.

Kaedah dalam artikel ini mencapai prestasi optimum pada 5 penanda aras OWTTT berbeza, dan menyediakan hala tuju baharu untuk penyelidikan seterusnya tentang TTT untuk meneroka kaedah TTT yang lebih mantap. Penyelidikan telah diterima sebagai kertas Lisan dalam ICCV 2023.

Pengenalan

Latihan segmen ujian (TTT) hanya boleh mengakses data domain sasaran semasa fasa inferens dan melakukan inferens segera pada data ujian anjakan pengedaran. Kejayaan TTT telah ditunjukkan pada beberapa data domain sasaran yang rosak secara sintetik yang dipilih secara buatan. Walau bagaimanapun, sempadan keupayaan kaedah TTT sedia ada belum diterokai sepenuhnya.

Untuk mempromosikan aplikasi TTT dalam senario terbuka, tumpuan penyelidikan telah beralih kepada menyiasat senario di mana kaedah TTT mungkin gagal. Banyak usaha telah dilakukan untuk membangunkan kaedah TTT yang stabil dan teguh dalam persekitaran dunia terbuka yang lebih realistik. Dalam kerja ini, kami menyelidiki senario dunia terbuka yang biasa tetapi diabaikan, di mana domain sasaran mungkin mengandungi pengedaran data ujian yang diambil daripada persekitaran yang berbeza dengan ketara, seperti kategori semantik yang berbeza daripada domain sumber, atau hanya bunyi rawak.

Kami memanggil data ujian di atas sebagai data luar pengedaran yang kuat (OOD yang kuat). Apa yang dipanggil data OOD lemah dalam kerja ini ialah data ujian dengan anjakan pengedaran, seperti kerosakan sintetik biasa. Oleh itu, kekurangan kerja sedia ada dalam persekitaran kehidupan sebenar ini mendorong kami untuk meneroka meningkatkan keteguhan Latihan Segmen Ujian Dunia Terbuka (OWTTT), di mana data ujian dicemari oleh sampel OOD yang kuat

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法

Apa yang perlu ditulis semula Ia adalah: Rajah 1: Hasil penilaian kaedah TTT sedia ada di bawah tetapan OWTTTSeperti yang ditunjukkan dalam Rajah 1, kami mula-mula menilai kaedah TTT sedia ada di bawah tetapan OWTTT dan mendapati bahawa melalui kedua-dua latihan kendiri dan kaedah TTT sejajar pengedaran dipengaruhi oleh sampel OOD yang kuat. Keputusan ini menunjukkan bahawa latihan ujian selamat tidak boleh dicapai dengan menggunakan teknologi TTT sedia ada di dunia terbuka. Kami mengaitkan kegagalan mereka kepada dua sebab berikut

    TTT berasaskan latihan kendiri menghadapi kesukaran mengendalikan sampel OOD yang kuat kerana ia mesti memberikan sampel ujian kepada kelas yang diketahui. Walaupun beberapa sampel berkeyakinan rendah boleh ditapis dengan menggunakan ambang yang digunakan dalam pembelajaran separa penyeliaan, masih tiada jaminan bahawa semua sampel OOD yang kuat akan ditapis keluar.
  • Kaedah berasaskan penjajaran pengedaran akan terjejas apabila sampel OOD yang kukuh dikira untuk menganggarkan taburan domain sasaran. Kedua-dua penjajaran pengedaran global [1] dan penjajaran pengedaran kelas [2] boleh terjejas dan membawa kepada penjajaran pengedaran ciri yang tidak tepat.
  • Untuk meningkatkan keteguhan TTT dunia terbuka di bawah rangka kerja latihan kendiri, kami mempertimbangkan kemungkinan sebab kegagalan kaedah TTT sedia ada dan mencadangkan penyelesaian yang menggabungkan dua teknologi

Pertama, kami akan Menubuhkan garis dasar TTT berdasarkan varian, iaitu, gunakan prototaip domain sumber sebagai pusat kluster untuk pengelompokan dalam domain sasaran. Untuk mengurangkan kesan OOD yang kuat pada latihan kendiri daripada label pseudo palsu, kami mencadangkan kaedah bebas hiperparameter untuk menolak sampel OOD yang kuat

Untuk memisahkan lagi ciri sampel OOD yang lemah dan sampel OOD yang kuat, kami membenarkan pengumpulan prototaip untuk asingkan dengan pemilihan Sambungan sampel OOD yang kuat. Oleh itu, latihan kendiri akan membolehkan sampel OOD yang kuat membentuk kelompok yang ketat di sekeliling prototaip OOD kukuh yang baru dikembangkan. Ini akan memudahkan penjajaran pengedaran antara sumber dan domain sasaran. Kami selanjutnya mencadangkan untuk mengatur latihan kendiri melalui penjajaran pengedaran global untuk mengurangkan risiko bias pengesahan

Akhir sekali, untuk mensintesis senario TTT dunia terbuka, kami menggunakan set data CIFAR10-C, CIFAR100-C, ImageNet-C, VisDA-C, ImageNet-R, Tiny-ImageNet, MNIST dan SVHN dan menggunakan data ditetapkan kepada OOD Lemah, yang lain mewujudkan set data penanda aras untuk OOD yang kukuh. Kami merujuk kepada penanda aras ini sebagai Penanda Aras Latihan Segmen Ujian Dunia Terbuka dan berharap ini menggalakkan lebih banyak kerja masa hadapan untuk menumpukan pada keteguhan latihan segmen ujian dalam senario yang lebih realistik.

Kaedah

Kertas dibahagikan kepada empat bahagian untuk memperkenalkan kaedah yang dicadangkan.

1) Gambaran keseluruhan tetapan tugas latihan dalam segmen ujian di dunia terbuka.

2) Memperkenalkan cara menggunakan

Pengkelompokan prototaip ialah algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Algoritma ini digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej Laksanakan TTT dan cara melanjutkan prototaip untuk latihan masa ujian dunia terbuka.

3) Memperkenalkan cara menggunakan data domain sasaran

Kandungan yang perlu ditulis semula ialah: sambungan prototaip dinamik .

4) Memperkenalkan

Penjajaran Pengedaran dengan Pengkelompokan Prototaip ialah algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Algoritma ini, digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej, digabungkan untuk membolehkan latihan masa ujian dunia terbuka yang berkuasa.

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法

Kandungan yang perlu ditulis semula ialah: Rajah 2: Gambar rajah gambaran keseluruhan kaedah

Tetapan tugas

Matlamat TTT dalam domain yang disasarkan adalah-tra , di mana domain sasaran mungkin agak Terdapat penghijrahan pengedaran dalam domain sumber. Dalam TTT dunia tertutup standard, ruang label bagi domain sumber dan sasaran adalah sama. Walau bagaimanapun, dalam TTT dunia terbuka, ruang label domain sasaran mengandungi ruang sasaran domain sumber, yang bermaksud bahawa domain sasaran mempunyai kategori semantik baharu yang tidak kelihatan

Untuk mengelakkan kekeliruan antara definisi TTT, kami menggunakan TTAC [2] Protokol Latihan Masa Ujian Berurutan (sTTT) yang dicadangkan dinilai. Di bawah protokol sTTT, sampel ujian diuji secara berurutan, dan kemas kini model dilakukan selepas memerhati kumpulan kecil sampel ujian. Ramalan bagi mana-mana sampel ujian yang tiba pada cap masa t tidak dipengaruhi oleh mana-mana sampel ujian yang tiba pada t+k (yang k lebih besar daripada 0).

Pengkelompokan prototaip ialah algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Algoritma ini digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej

Diilhamkan oleh kerja menggunakan pengelompokan dalam tugas penyesuaian domain [3,4], kami menganggap latihan segmen ujian sebagai menemui kelompok dalam struktur data domain sasaran . Dengan mengenal pasti prototaip wakil sebagai pusat kluster, struktur kluster dikenal pasti dalam domain sasaran dan sampel ujian digalakkan untuk membenamkan berhampiran salah satu prototaip. Pengelompokan prototaip ialah algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Matlamat algoritma ini, yang digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej, ditakrifkan sebagai meminimumkan kehilangan kemungkinan log negatif persamaan kosinus antara sampel dan pusat kluster, seperti yang ditunjukkan dalam persamaan berikut.

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
Kami membangunkan kaedah bebas hiperparameter untuk menapis sampel OOD yang kuat untuk mengelakkan kesan negatif pelarasan berat model. Secara khusus, kami mentakrifkan skor OOD yang kuat untuk setiap sampel ujian sebagai persamaan tertinggi kepada prototaip domain sumber, seperti yang ditunjukkan dalam persamaan berikut.

Rajah 3 Nilai kumpulan diedarkan dalam puncak berganda

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
Kami memerhatikan bahawa nilai kumpulan mematuhi taburan puncak berganda, seperti yang ditunjukkan dalam Rajah 3. Oleh itu, daripada menentukan ambang tetap, kami mentakrifkan ambang optimum sebagai nilai terbaik yang memisahkan kedua-dua taburan. Secara khusus, masalah boleh dirumuskan sebagai membahagikan outlier kepada dua kelompok, dan ambang optimum akan meminimumkan varians dalam kelompok dalam . Mengoptimumkan persamaan berikut boleh dicapai dengan cekap dengan mencari secara menyeluruh semua ambang yang mungkin dari 0 hingga 1 dalam langkah 0.01. ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法

Apa yang perlu ditulis semula ialah: Sambungan prototaip dinamik

Meluaskan kumpulan prototaip OOD yang kukuh perlu mempertimbangkan kedua-dua domain sumber dan prototaip OOD yang kukuh untuk menilai sampel ujian. Untuk menganggarkan bilangan kelompok daripada data secara dinamik, kajian terdahulu telah menyiasat masalah yang sama. Algoritma pengelompokan keras deterministik DP-means [5] dibangunkan dengan mengukur jarak titik data ke pusat gugusan yang diketahui, dan gugusan baharu dimulakan apabila jaraknya melebihi ambang. DP-means ditunjukkan sebagai setara dengan mengoptimumkan objektif K-means, tetapi dengan penalti tambahan pada bilangan kluster, memberikan penyelesaian yang boleh dilaksanakan untuk sambungan prototaip dinamik yang memerlukan penulisan semula.

Untuk mengurangkan kesukaran menganggar hiperparameter tambahan, kami mula-mula mentakrifkan sampel ujian dengan skor OOD kuat lanjutan sebagai jarak terdekat dengan prototaip domain sumber sedia ada dan prototaip OOD kuat, seperti berikut. Oleh itu, sampel ujian di atas ambang ini akan membina prototaip baharu. Untuk mengelakkan penambahan sampel ujian berdekatan, kami mengulangi proses pengembangan prototaip ini secara berperingkat. ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法

Dengan prototaip OOD lain yang kukuh dikenal pasti, kami menentukan prototaip untuk menguji sampel ialah algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Algoritma ini digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej mengambil kira dua faktor. Pertama, sampel ujian yang diklasifikasikan ke dalam kelas yang diketahui harus dibenamkan lebih dekat dengan prototaip dan lebih jauh daripada prototaip lain, yang mentakrifkan tugas pengelasan kelas K. Kedua, sampel ujian yang diklasifikasikan sebagai prototaip OOD yang kuat harus berada jauh dari mana-mana prototaip domain sumber, yang mentakrifkan tugas pengelasan kelas K+1. Dengan mengambil kira matlamat ini, kami mengelompokkan prototaip, algoritma pembelajaran tanpa pengawasan yang digunakan untuk mengelompokkan sampel dalam set data ke dalam kategori yang berbeza. Dalam pengelompokan prototaip, setiap kategori diwakili oleh satu atau lebih prototaip, yang boleh menjadi sampel dalam set data atau dijana mengikut beberapa peraturan. Matlamat pengelompokan prototaip adalah untuk mencapai pengelompokan dengan meminimumkan jarak antara sampel dan prototaip kategori yang dimilikinya. Algoritma pengelompokan prototaip biasa termasuk pengelompokan K-means dan model campuran Gaussian. Algoritma ini digunakan secara meluas dalam bidang seperti perlombongan data, pengecaman corak dan pemprosesan imej Kerugian ditakrifkan sebagai formula berikut.

Kekangan Penjajaran PengedaranICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法

Adalah diketahui umum bahawa latihan kendiri terdedah kepada label pseudo yang salah. Keadaan bertambah buruk apabila domain sasaran terdiri daripada sampel OOD. Untuk mengurangkan risiko kegagalan, kami selanjutnya menggunakan penjajaran pengedaran [1] sebagai regularisasi untuk latihan kendiri, seperti berikut.

ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
Eksperimen
#🎜#
#🎜##🎜 🎜🎜#Kami telah menguji 5 set data penanda aras OWTTT yang berbeza, termasuk set data rosak secara sintetik dan set data mengubah gaya. Percubaan terutamanya menggunakan tiga penunjuk penilaian: ketepatan pengelasan OOD lemah ACCS, ketepatan pengelasan OOD kuat ACCN dan min harmonik bagi kedua-dua ACCH.
ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
Jadual 1 Prestasi kaedah berbeza pada set data Cifar10-C 🎜🎜##🎜#
#🎜 🎜 #
Jadual 2 Prestasi kaedah berbeza pada dataset Cifar100-C 🎜#
ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法#🎜#🎜🎜🎜🎜
Jadual 3 Prestasi kaedah berbeza pada dataset ImageNet-C 🎜🎜##🎜 🎜##🎜🎜🎜##🎜🎜🎜🎜🎜🎜 #Jadual 4 Prestasi kaedah yang berbeza pada dataset ImageNet-R ## 🎜🎜###🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#🎜 ## 🎜 🎜 ## 🎜🎜#seperti yang ditunjukkan dalam jadual di atas, kaedah kami telah bertambah baik berbanding kaedah terbaik semasa pada hampir semua set data, dan boleh mengenal pasti sampel OOD yang kuat dengan berkesan dan mengurangkan kesannya terhadap Impak OOD yang lemah terhadap klasifikasi sampel. Kaedah kami boleh mencapai TTT yang lebih mantap dalam senario dunia terbuka.
ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法Apabila meringkaskan kandungan, anda perlu mengekalkan maksud asal tidak berubah dan menulis semula bahasa ke dalam bahasa Cina
Artikel ini mula-mula mencadangkan dunia terbuka masalah dan tetapan latihan segmen ujian (OWTTT), menunjukkan bahawa kaedah sedia ada akan menghadapi kesukaran apabila memproses data domain sasaran yang mengandungi sampel OOD yang kuat yang mempunyai pengimbangan semantik daripada sampel domain sumber, dan mencadangkan kandungan yang ditulis semula berdasarkan keperluan: dinamik Prototaip memanjangkan diri -kaedah latihan menyelesaikan masalah di atas. Kami berharap kerja ini dapat memberikan hala tuju baharu untuk penyelidikan seterusnya tentang TTT untuk meneroka kaedah TTT yang lebih mantap. Rujukan:
ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
[1] Yuejiang Liu, Parth Kothari, Bastien van Delft, Baptiste Bellot-dan Baptiste Bellot , dan Alexandre Alahi Ttt++: Bilakah latihan masa ujian yang diselia sendiri gagal atau berkembang maju dalam Sistem Pemprosesan Maklumat Neural, 2021.
[2] Yongyi. Su, Xun Xu dan Kui Jia Meninjau semula latihan masa ujian yang realistik: Inferens berurutan dan penyesuaian dengan pengelompokan berlabuh dalam Sistem Pemprosesan Maklumat Neural, 2022.
#🎜🎜 #. [3] Tang Hui dan Jia Kui. Penyesuaian domain permusuhan yang diskriminatif. Dalam Prosiding Persidangan AAAI mengenai Kepintaran Buatan, jilid 34, halaman 5940-5947, 2020 ICCV 2023 Oral | 如何在开放世界进行测试段训练?基于动态原型扩展的自训练方法
[4] Kuniaki Saito, Shohei Yamamoto, Yoshitaka Usdahamoto, Tahikuya Harada . Penyesuaian domain set terbuka secara backpropagation Dalam Persidangan Eropah mengenai Visi Komputer, 2018.
[5] Brian Kulis dan Michael I Jordan. k-means dilawati semula: algoritma baharu melalui kaedah bukan parametrik Bayesian. Dalam Persidangan Antarabangsa mengenai Pembelajaran Mesin, 2012

Atas ialah kandungan terperinci ICCV 2023 Oral |. Bagaimana untuk menjalankan latihan segmen ujian di dunia terbuka? Kaedah latihan kendiri berdasarkan pengembangan prototaip dinamik. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:jiqizhixin.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam