Rumah >Peranti teknologi >AI >Penyelidik OpenAI: Cara melaksanakan pembelajaran diselia apabila data tidak mencukupi

Penyelidik OpenAI: Cara melaksanakan pembelajaran diselia apabila data tidak mencukupi

王林
王林ke hadapan
2023-04-12 08:58:091132semak imbas

Artikel ini diterbitkan semula daripada Lei Feng.com Jika anda perlu mencetak semula, sila pergi ke tapak web rasmi Lei Feng.com untuk memohon kebenaran.

Dalam aplikasi sebenar, data mudah diperoleh, tetapi data berlabel jarang berlaku.

Secara umumnya, apabila tugas pembelajaran yang diselia menghadapi masalah data label yang tidak mencukupi, empat penyelesaian berikut boleh dipertimbangkan:

1. Latihan Awal + penalaan halus: mula-mula pralatih model tugas-agnostik yang berkuasa pada korpus data tanpa pengawasan berskala besar (mis. pra-latihan model bahasa pada teks percuma melalui pembelajaran diselia sendiri atau model penglihatan pada imej tidak berlabel pra -latihan) dan kemudian memperhalusi model pada tugas hiliran menggunakan set kecil sampel berlabel.

2. Pembelajaran separa penyeliaan: Belajar daripada sampel berlabel dan tidak berlabel secara serentak Penyelidik telah menggunakan kaedah ini untuk menjalankan banyak penyelidikan tentang tugasan visual.

3. Pembelajaran aktif: Kos pelabelan adalah tinggi Walaupun bajet kos terhad, kami masih berharap untuk mengumpul data label sebanyak mungkin. Pembelajaran aktif belajar memilih sampel tidak berlabel yang paling berharga dan mengumpul data sedemikian dalam proses pengumpulan seterusnya, membantu model mencapai kesan yang diingini sebanyak mungkin di bawah bajet yang terhad.

4. Pra-latihan + penjanaan set data automatik: Memandangkan model pra-latihan yang berkuasa, model ini boleh digunakan untuk menjana lebih banyak sampel berlabel secara automatik. Didorong oleh kejayaan pembelajaran beberapa pukulan, kaedah ini amat popular dalam domain bahasa.

Artikel ini secara menyeluruh memperkenalkan kaedah pembelajaran separa penyeliaan Penulis ialah penyelidik OpenAI Lilian Weng Alamat blog: https://lilianweng.github.io/

1 Apakah pembelajaran separa penyeliaan?

Pembelajaran separa penyeliaan menggunakan kedua-dua data berlabel dan tidak berlabel untuk melatih model. Menariknya, kebanyakan literatur sedia ada mengenai pembelajaran separa penyeliaan memfokuskan kepada tugas penglihatan. Kaedah pra-latihan + penalaan halus ialah paradigma yang lebih biasa dalam tugas bahasa. Kerugian semua kaedah yang disebut dalam artikel ini terdiri daripada dua bahagian: OpenAI 研究员:数据不足时,如何实现监督学习. Kehilangan pengawasan OpenAI 研究员:数据不足时,如何实现监督学习 sangat mudah dikira apabila semua sampel dilabelkan sebagai sampel. Kita perlu memberi tumpuan kepada cara mereka bentuk kerugian tanpa pengawasan OpenAI 研究员:数据不足时,如何实现监督学习. Istilah berwajaran OpenAI 研究员:数据不足时,如何实现监督学习 biasanya dipilih untuk menggunakan fungsi cerun, dengan t ialah bilangan langkah latihan Apabila bilangan masa latihan meningkat, perkadaran OpenAI 研究员:数据不足时,如何实现监督学习 meningkat. Penafian: Artikel ini tidak merangkumi semua kaedah separa seliaan, tetapi hanya menumpukan pada penalaan seni bina model. Untuk mendapatkan maklumat tentang cara menggunakan model generatif dan kaedah berasaskan graf dalam pembelajaran separa penyeliaan, anda boleh merujuk kepada kertas kerja "Tinjauan Keseluruhan Pembelajaran Separuh Penyeliaan Dalam".

2 Jadual penerangan simbol

Simbol

Maksud

OpenAI 研究员:数据不足时,如何实现监督学习

Bilangan tag unik.

OpenAI 研究员:数据不足时,如何实现监督学习

set data label, di mana OpenAI 研究员:数据不足时,如何实现监督学习 ialah perwakilan satu-panas bagi teg sebenar. Set data tidak berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

Seluruh set data, termasuk Sampel berlabel dan sampel tidak berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

boleh mewakili sampel tidak berlabel atau sampel berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

Sampel Label Tiada Dipertingkatkan atau label sampel.

OpenAI 研究员:数据不足时,如何实现监督学习

sampel ke-i.

OpenAI 研究员:数据不足时,如何实现监督学习

masing-masing mewakili kerugian, penyeliaan Kehilangan, kehilangan tanpa pengawasan

OpenAI 研究员:数据不足时,如何实现监督学习

The berat kehilangan tanpa pengawasan bertambah apabila bilangan langkah latihan meningkat.

OpenAI 研究员:数据不足时,如何实现监督学习

Diberi input , bersyarat kebarangkalian melabel set data.

OpenAI 研究员:数据不足时,如何实现监督学习

dijana menggunakan berwajaran θ Neural rangkaian adalah model yang dijangka akan dilatih.

OpenAI 研究员:数据不足时,如何实现监督学习

Output fungsi logik f vektor nilai.

OpenAI 研究员:数据不足时,如何实现监督学习

Label Ramalan pengedaran.

OpenAI 研究员:数据不足时,如何实现监督学习

Fungsi jarak antara dua taburan, seperti ralat min kuasa dua, entropi silang, perbezaan KL, dsb.

OpenAI 研究员:数据不足时,如何实现监督学习

Hiperparameter wajaran purata bergerak untuk berat model Guru.

OpenAI 研究员:数据不足时,如何实现监督学习

α ialah nilai sampel campuran Pekali,OpenAI 研究员:数据不足时,如何实现监督学习

OpenAI 研究员:数据不足时,如何实现监督学习

Metajamkan suhu taburan yang diramalkan.

OpenAI 研究员:数据不足时,如何实现监督学习

Pilih ambang keyakinan untuk keputusan ramalan yang layak.

3 Andaian

Dalam literatur penyelidikan sedia ada, andaian berikut dibincangkan untuk menyokong keputusan reka bentuk tertentu dalam kaedah pembelajaran separa penyeliaan.

Andaian 1: Andaian Kelancaran Kawasan kepadatan adalah hampir, labelnya hendaklah sama atau hampir sama.

Andaian 2: Andaian Kluster

Ruang ciri mempunyai kedua-dua kawasan padat dan jarang . Titik data berkumpulan padat secara semula jadi membentuk kelompok. Sampel dalam kelompok yang sama harus mempunyai label yang sama. Ini adalah lanjutan kecil Andaian 1.

Andaian 3: Andaian Pemisahan Ketumpatan Rendah

Sempadan keputusan antara kelas Selalunya terletak di kawasan berketumpatan rendah yang jarang , kerana jika tidak, sempadan keputusan akan membahagikan kelompok berketumpatan tinggi kepada dua kelas yang sepadan dengan dua kelompok masing-masing, yang akan membatalkan kedua-dua Andaian 1 dan 2.

Andaian 4: Andaian Manifold

Data berdimensi tinggi cenderung terletak pada manifold berdimensi rendah . Walaupun data dunia sebenar boleh diperhatikan pada dimensi yang sangat tinggi (cth., imej objek/adegan dunia sebenar), ia sebenarnya boleh ditangkap oleh manifold berdimensi lebih rendah Ia menangkap sifat tertentu data dan mengumpulkan beberapa titik data yang serupa (contohnya, imej objek/adegan dunia sebenar tidak diperoleh daripada pengedaran seragam semua gabungan piksel). Ini membolehkan model mempelajari kaedah perwakilan yang lebih cekap untuk menemui dan menilai persamaan antara titik data tidak berlabel. Ini juga merupakan asas pembelajaran perwakilan. Untuk penjelasan yang lebih terperinci tentang andaian ini, sila rujuk artikel "Cara Memahami Andaian Popular dalam Pembelajaran Separa Penyeliaan".

Pautan: https://stats.stackexchange.com/questions/66939/what-is-the-manifold-assumption-in-semi-supervised-learning

4 Penyelarasan Ketekalan Penyaturan ketekalan, juga dipanggil latihan ketekalan, menganggap bahawa diberi input yang sama, rawak dalam sifat rangkaian saraf (seperti menggunakan algoritma Tercicir ) atau transformasi penambahan data tidak mengubah ramalan model. Setiap kaedah dalam bahagian ini mempunyai kehilangan regularisasi konsisten:

. Beberapa kaedah pembelajaran yang diselia sendiri seperti SimCLR, BYOL, dan SimCSE telah menerima pakai idea ini. Versi dipertingkat yang berbeza bagi sampel yang sama menghasilkan perwakilan yang sama. Motivasi penyelidikan untuk latihan pandangan silang dalam pemodelan bahasa dan pembelajaran pelbagai pandangan dalam pembelajaran penyeliaan kendiri adalah sama.

(1).Π model OpenAI 研究员:数据不足时,如何实现监督学习

OpenAI 研究员:数据不足时,如何实现监督学习 Rajah 1: Gambaran keseluruhan Π-model . Input yang sama terganggu dengan peningkatan rawak yang berbeza dan topeng keciciran untuk menghasilkan dua versi, dan dua output diperoleh melalui rangkaian Model Π meramalkan bahawa kedua-dua output adalah konsisten. (Sumber imej: Kertas kerja Laine dan Aila 2017 "Sequential Integration of Semi-supervised Learning")

Dalam kertas kerja "Regularization With Stochastic Transformations and Perturbations for Deep Semi-Supervised Learning" yang diterbitkan pada 2016, Sajjadi et al mencadangkan kehilangan Pembelajaran tanpa pengawasan, yang boleh menjana dua versi titik data yang sama melalui transformasi rawak (seperti keciciran, pengumpulan maksimum rawak), dan meminimumkan perbezaan antara kedua-dua hasil keluaran selepas melalui rangkaian. Kehilangan ini boleh digunakan pada set data tidak berlabel kerana labelnya tidak digunakan secara eksplisit. Laine dan Aila kemudiannya memberikan kaedah pemprosesan ini nama dalam kertas "Temporal Ensembling for Semi-Supervised Learning" yang diterbitkan pada 2017, yang dipanggil model Π. OpenAI 研究员:数据不足时,如何实现监督学习Antaranya, OpenAI 研究员:数据不足时,如何实现监督学习 merujuk kepada nilai peningkatan rawak yang berbeza atau topeng keciciran yang digunakan pada rangkaian saraf yang sama. Kehilangan ini menggunakan keseluruhan set data.

(2) Penyepaduan masa (Ensemble temporal)

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 2: Penyepaduan masa Gambaran keseluruhan. Matlamat pembelajarannya adalah untuk membuat ramalan label pada purata bergerak eksponen (EMA) bagi setiap sampel. (Sumber imej: Kertas kerja Laine dan Aila 2017 "Sequential Integration of Semi-supervised Learning")

Model

Π memerlukan setiap sampel melalui rangkaian saraf dua kali, yang menggandakan kos pengiraan. Untuk mengurangkan kos, model ensemble temporal secara berterusan mengambil purata bergerak eksponen (EMA) bagi ramalan model masa nyata untuk setiap sampel latihan OpenAI 研究员:数据不足时,如何实现监督学习 sebagai sasaran pembelajaran, dan EMA hanya perlu dikira dan dikemas kini sekali dalam setiap lelaran. Memandangkan output model integrasi temporal OpenAI 研究员:数据不足时,如何实现监督学习 dimulakan kepada 0, ia dibahagikan dengan OpenAI 研究员:数据不足时,如何实现监督学习 untuk penormalan untuk membetulkan bias permulaan ini. Pengoptimum Adam juga mempunyai istilah pembetulan berat sebelah atas sebab yang sama. OpenAI 研究员:数据不足时,如何实现监督学习di mana OpenAI 研究员:数据不足时,如何实现监督学习 ialah ramalan ensemble dalam lelaran ke-t, dan OpenAI 研究员:数据不足时,如何实现监督学习 ialah ramalan model dalam pusingan semasa. Perlu diingat bahawa sejak OpenAI 研究员:数据不足时,如何实现监督学习=0, selepas pembetulan pincang, OpenAI 研究员:数据不足时,如何实现监督学习 betul-betul sama dengan nilai ramalan model OpenAI 研究员:数据不足时,如何实现监督学习 dalam lelaran pertama.

(3) Min guru

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 3: Min Gambaran Kerangka Kerja Guru (Imej sumber: Kertas kerja Tarvaninen dan Valpola 2017 "Model Guru Min ialah Model Contoh Berprestasi Lebih Baik: Pengoptimuman Objektif Ketekalan Purata Wajaran" Hasil Pembelajaran Dalam Separuh Penyeliaan")

Temporal model ensemble menjejaki purata bergerak eksponen ramalan label untuk setiap sampel latihan sebagai objektif pembelajaran. Walau bagaimanapun, ramalan label ini hanya berubah dalam setiap lelaran, yang menjadikan pendekatan ini menyusahkan apabila set data latihan adalah besar. Untuk mengatasi masalah kelajuan kemas kini sasaran yang perlahan, Tarvaninen dan Valpola menerbitkan kertas kerja "Guru min adalah model peranan yang lebih baik: Pengoptimuman sasaran konsistensi purata berwajaran hasil pembelajaran mendalam separa diselia" pada 2017 (Min guru adalah model peranan yang lebih baik: Berat- sasaran ketekalan purata meningkatkan hasil pembelajaran mendalam separa diselia), algoritma Guru Min dicadangkan, yang mengemas kini sasaran dengan menjejak purata bergerak berat model dan bukannya keluaran model. Model asal dengan berat θ dipanggil model Pelajar, dan model yang beratnya ialah berat purata bergerak bagi beberapa model Pelajar berturut-turut θ′ dipanggil model Guru Min:

OpenAI 研究员:数据不足时,如何实现监督学习

Kehilangan regularisasi konsistensi ialah jarak antara ramalan model Pelajar dan model Guru, dan jurang ini harus diminimumkan. Model Guru Min boleh memberikan ramalan yang lebih tepat berbanding model Pelajar. Kesimpulan ini disahkan dalam eksperimen empirikal, seperti yang ditunjukkan dalam Rajah 4.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 4: Ralat pengelasan model Π dan model Min Guru pada set data SVHN. Model Guru Min (diwakili oleh garis oren) berprestasi lebih baik daripada model Pelajar (diwakili oleh garis biru). (Sumber imej: Tarvaninen dan kertas kerja Valpola "Model Guru Min ialah Model Contoh Berprestasi Lebih Baik: Pengoptimuman Objektif Ketekalan Purata Berwajaran Hasil Pembelajaran Dalam Separuh Penyeliaan" diterbitkan pada 2017)

Menurut penyelidikan ablasinya:

  • Kaedah peningkatan input (cth., membalik rawak imej input, hingar Gaussian) atau pemprosesan tercicir model Pelajar adalah baik untuk pelaksanaan model Prestasi adalah satu kemestian. Mod guru tidak memerlukan pemprosesan keciciran.
  • Prestasi adalah sensitif kepada hiperparameter pereputan β purata bergerak eksponen. Strategi yang lebih baik ialah menggunakan β=0.99 yang lebih kecil pada peringkat pertumbuhan dan β=0.999 yang lebih besar pada peringkat kemudian apabila peningkatan model Pelajar menjadi perlahan.
  • Didapati bahawa ralat min kuasa dua (MSE) bagi fungsi kos ketekalan berprestasi lebih baik daripada fungsi kos lain seperti perbezaan KL.

(4) Mengambil sampel hingar sebagai sasaran pembelajaran

Beberapa kaedah latihan konsisten baru-baru ini belajar untuk menggabungkan sampel asal tidak berlabel dengan versi dipertingkatkan yang sepadan Perbezaan antara ramalan diminimumkan. Idea ini sangat serupa dengan model Π, tetapi kehilangan regularisasi konsistensinya hanya berfungsi pada data tidak berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 5: Latihan ketekalan menggunakan sampel yang bising

Dalam kertas kerja "Menjelaskan dan Memanfaatkan Contoh-contoh Adversarial" yang diterbitkan oleh Goodfellow et al pada tahun 2014, latihan adversarial menggunakan bunyi lawan pada input dan melatih Model ini menjadikannya teguh kepada serangan musuh tersebut.

Formula aplikasi kaedah ini dalam pembelajaran terselia adalah seperti berikut:

OpenAI 研究员:数据不足时,如何实现监督学习

di mana OpenAI 研究员:数据不足时,如何实现监督学习 ialah taburan sebenar, yang menghampiri pengekodan satu panas bagi label sebenar, OpenAI 研究员:数据不足时,如何实现监督学习 ialah ramalan model dan OpenAI 研究员:数据不足时,如何实现监督学习 ialah fungsi jarak yang mengira perbezaan antara kedua-dua pengagihan. Miyato et al. mencadangkan latihan adversarial maya dalam kertas kerja "Latihan Adversarial Maya: Kaedah Regularisasi untuk Pembelajaran Diselia dan Separuh Diawasi" yang diterbitkan pada tahun 2018 (Latihan Adversarial Maya, VAT), kaedah ini adalah lanjutan daripada idea latihan adversarial dalam bidang pembelajaran separa penyeliaan. Memandangkan OpenAI 研究员:数据不足时,如何实现监督学习 tidak diketahui, VAT menggantikan istilah yang tidak diketahui dengan ramalan model semasa tentang input asal apabila berat semasa ditetapkan kepada OpenAI 研究员:数据不足时,如何实现监督学习. Perlu diingat bahawa OpenAI 研究员:数据不足时,如何实现监督学习 ialah nilai tetap berat model, jadi kemas kini kecerunan tidak akan dilakukan pada OpenAI 研究员:数据不足时,如何实现监督学习.

OpenAI 研究员:数据不足时,如何实现监督学习

Kehilangan VAT dikenakan pada kedua-dua sampel berlabel dan tidak berlabel. Ia mengira kelancaran negatif manifold ramalan model semasa pada setiap titik data. Mengoptimumkan kerugian ini boleh menjadikan manifold ramalan lebih lancar. Verma et al. mencadangkan latihan ketekalan interpolasi (ICT) dalam kertas kerja 2019 "Latihan Konsistensi Interpolasi untuk Pembelajaran Separuh Penyeliaan" dengan menambah interpolasi lebih banyak titik data supaya ramalan model dan interpolasi label yang sepadan adalah sebagai konsisten mungkin. Hongyi Zhang et al. mencadangkan kaedah MixUp dalam kertas kerja 2018 "Mixup: Beyond Empirical Risk Minimization", yang mencampurkan dua imej melalui jumlah wajaran yang mudah. Latihan ketekalan interpolasi adalah berdasarkan idea ini, membenarkan model ramalan menjana label untuk sampel campuran untuk memadankan ramalan interpolasi input sepadan:

OpenAI 研究员:数据不足时,如何实现监督学习

di mana OpenAI 研究员:数据不足时,如何实现监督学习 mewakili purata bergerak θ model Min Guru.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 6: Gambaran keseluruhan latihan ketekalan interpolasi. Gunakan kaedah MixUp untuk menjana lebih banyak sampel interpolasi dengan label interpolasi sebagai sasaran pembelajaran. (Sumber imej: makalah 2019 Verma et al. "Latihan Konsistensi Interpolasi untuk Pembelajaran Separuh Penyeliaan")

Memandangkan dua sampel tidak berlabel yang dipilih secara rawak tergolong dalam kategori yang berbeza Kebarangkalian adalah sangat tinggi (contohnya, terdapat 1000 kategori sasaran dalam ImageNet), jadi menggunakan kaedah Campuran antara dua sampel rawak tidak berlabel berkemungkinan menghasilkan interpolasi berhampiran sempadan keputusan. Menurut hipotesis pemisahan berketumpatan rendah, sempadan keputusan selalunya terletak di kawasan berketumpatan rendah.

OpenAI 研究员:数据不足时,如何实现监督学习

di mana OpenAI 研究员:数据不足时,如何实现监督学习 mewakili purata pergerakan θ. Sama seperti VAT, Pembesaran Data Tanpa Pengawasan (UDA) yang dicadangkan oleh Xie et al dalam kertas kerja 2020 "Pembesaran Data Tanpa Pengawasan untuk Latihan Konsistensi" belajar untuk memberikan sampel tidak berlabel Output yang sama seperti yang diramalkan oleh sampel ditambah. UDA secara khusus menumpukan pada mengkaji bagaimana "kualiti" bunyi mempengaruhi prestasi pembelajaran separa penyeliaan melalui latihan yang konsisten. Untuk menjana sampel hingar yang bermakna dan cekap, adalah penting untuk menggunakan kaedah penambahan data lanjutan. Kaedah penambahan data yang baik harus dapat menjana cekap (iaitu, jangan menukar label) dan hingar pelbagai dengan bias induktif yang disasarkan.

Untuk medan imej, UDA menggunakan kaedah RandAugment, yang dicadangkan oleh Cubuk et al dalam makalah 2019 "RandAugment: Kaedah peningkatan data automatik yang praktikal yang mengurangkan ruang carian " (RandAugment: Pembesaran data automatik yang praktikal dengan ruang carian yang dikurangkan). Ia menyampel secara seragam operasi pembesaran yang tersedia dalam perpustakaan pemprosesan imej Python PIL, tanpa memerlukan pembelajaran atau pengoptimuman, dan oleh itu jauh lebih murah daripada menggunakan kaedah AutoAugment.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 7: Perbandingan pelbagai kaedah pembelajaran separa penyeliaan dalam klasifikasi CIFAR-10. Apabila melatih 50,000 sampel tanpa pemprosesan RandAugment, kadar ralat Wide-ResNet-28-2 dan PyramidNet+ShakeDrop di bawah pengawasan penuh ialah **5.4** dan **2.7** masing-masing.

Untuk medan bahasa, UDA menggunakan gabungan terjemahan belakang dan penggantian perkataan berdasarkan TF-IDF. Terjemahan belakang mengekalkan makna peringkat tinggi tetapi tidak mengekalkan perkataan tertentu sendiri, manakala penggantian perkataan berasaskan TF-IDF mengalih keluar perkataan tidak bermaklumat dengan skor TF-IDF yang rendah. Dalam eksperimen tentang tugas bahasa, penyelidik mendapati bahawa UDA adalah pelengkap untuk memindahkan pembelajaran dan pembelajaran perwakilan sebagai contoh, memperhalusi model BERT pada data tidak berlabel dalam domain (iaitu OpenAI 研究员:数据不足时,如何实现监督学习 dalam Rajah 8) boleh meningkatkan lagi prestasi .

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 8: Perbandingan kaedah peningkatan data tanpa pengawasan menggunakan tetapan permulaan yang berbeza pada tugas pengelasan teks yang berbeza. (Sumber imej: makalah 2020 Xie et al. "Pembesaran Data Tanpa Seliaan untuk Latihan Konsistensi")

Apabila mengira OpenAI 研究员:数据不足时,如何实现监督学习 , UDA boleh digunakan dengan menggunakan perkara berikut Tiga teknik latihan untuk mengoptimumkan keputusan:

  • Penopengan keyakinan rendah: Jika keyakinan ramalan sampel lebih rendah daripada ambang OpenAI 研究员:数据不足时,如何实现监督学习, maka Lakukan pemprosesan topeng.
  • Tajaman Taburan Ramalan: Gunakan suhu rendah OpenAI 研究员:数据不足时,如何实现监督学习 dalam Softmax untuk menajamkan taburan kebarangkalian ramalan.
  • Penapisan Data Dalam Domain: Untuk mengekstrak lebih banyak data dalam domain daripada set data luar domain yang besar, penyelidik melatih pengelas untuk meramalkan label dalam domain dan kemudian mengekalkan Sampel dengan ramalan keyakinan tinggi digunakan sebagai sampel calon dalam domain.

OpenAI 研究员:数据不足时,如何实现监督学习

di mana, OpenAI 研究员:数据不足时,如何实现监督学习 ialah nilai tetap berat model, sama seperti OpenAI 研究员:数据不足时,如何实现监督学习 dalam VAT , jadi tiada kemas kini kecerunan, OpenAI 研究员:数据不足时,如何实现监督学习 ialah titik data dipertingkat, OpenAI 研究员:数据不足时,如何实现监督学习 ialah ambang keyakinan ramalan dan OpenAI 研究员:数据不足时,如何实现监督学习 ialah suhu penajaman taburan.

5 Pelabelan Pseudo

Kertas 2013 Lee et al. "Pelabelan Pseudo: Kaedah pembelajaran separa penyeliaan yang mudah dan cekap untuk rangkaian saraf dalam" Pseudo-Label : Kaedah Pembelajaran Separuh Selia Yang Mudah dan Cekap untuk Rangkaian Neural Dalam dicadangkan dalam (Pseudo-Label: Kaedah Pembelajaran Separuh Separuh Yang Mudah dan Cekap untuk Rangkaian Neural Dalam Ia memberikan label pseudo kepada sampel tidak berlabel berdasarkan softmax maksimum). kebarangkalian yang diramalkan oleh model semasa, dan kemudian memberikan label pseudo kepada sampel tidak berlabel di bawah tetapan yang diselia sepenuhnya , melatih model pada sampel berlabel dan sampel tidak berlabel secara serentak.

Mengapa teg pseudo berfungsi? Pelabelan pseudo sebenarnya bersamaan dengan regularisasi entropi, yang meminimumkan entropi bersyarat bagi kebarangkalian kelas data tidak berlabel, dengan itu mencapai pemisahan berketumpatan rendah antara kelas. Dalam erti kata lain, kebarangkalian kelas yang diramalkan sebenarnya mengira pertindihan kelas, dan meminimumkan entropi adalah bersamaan dengan mengurangkan pertindihan kelas dan dengan itu pemisahan ketumpatan.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 9: (a) menunjukkan output ujian pada set ujian MINIST selepas melatih model menggunakan hanya 600 data berlabel The t -Hasil visualisasi SNE, (b) mewakili hasil visualisasi t-SNE bagi output ujian pada set ujian MINIST selepas melatih model menggunakan 600 data berlabel dan 60,000 pseudo-label data tidak berlabel. Label pseudo membolehkan ruang benam yang dipelajari mencapai pemisahan yang lebih baik. (Sumber imej: makalah 2013 Lee et al. "Pseudo Labels: A Simple and Efficient Semi-supervised Learning Method for Deep Neural Networks")

Latihan menggunakan label pseudo Alam semula jadi adalah proses berulang. Di sini, model yang menjana label pseudo dipanggil model Guru, dan model yang menggunakan label pseudo untuk pembelajaran dipanggil model Pelajar.

(1) Penyebaran label

Kertas "Penyebaran Label untuk Pembelajaran Separuh Penyeliaan Dalam" yang diterbitkan oleh Iscen et al pada tahun 2019 Konsep penyebaran label telah dicadangkan dalam Pembelajaran Separa Penyeliaan, iaitu idea membina graf persamaan antara sampel berdasarkan pembenaman ciri. Label pseudo kemudiannya "diresapkan" daripada sampel yang diketahui kepada sampel tidak berlabel dengan pemberat perambatan berkadar dengan skor persamaan berpasangan dalam graf. Dari segi konsep, ia serupa dengan pengelas k-NN, yang kedua-duanya mengalami masalah tidak menskalakan dengan baik kepada set data yang besar.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 10: Gambarajah skematik cara penyebaran teg berfungsi. (Sumber imej: "Penyebaran Label untuk Pembelajaran Separuh Penyeliaan Dalam" diterbitkan oleh Iscen et al. pada 2019)

(2) Latihan Kendiri

Latihan kendiri bukanlah konsep baru Scudder et al menerbitkan kertas "Kebarangkalian kesilapan beberapa mesin pengecaman pola penyesuaian" pada tahun 1965, Nigram & Ghani et al dalam kertas kerja "Analyzing the Effectiveness and Applicability of Co-. trainin" yang diterbitkan pada tahun 2000 semuanya melibatkan konsep ini. Ia ialah algoritma berulang yang melakukan dua langkah berikut secara bergilir-gilir sehingga setiap sampel tidak berlabel sepadan dengan label:

  • Pertama, ia membina klasifikasi pada peranti data berlabel.
  • Kemudian ia menggunakan pengelas ini untuk meramalkan label bagi data tidak berlabel dan menukarkan label keyakinan tertinggi kepada sampel berlabel.

Kertas kerja "Latihan kendiri dengan Pelajar Noisy meningkatkan klasifikasi ImageNet" yang diterbitkan oleh Xie et al pada 2020 klasifikasi ImageNet), latihan kendiri digunakan untuk pembelajaran mendalam dan telah mencapai keputusan yang hebat. Dalam tugas klasifikasi ImageNet, penyelidik mula-mula melatih model EfficientNet sebagai model Teacher untuk menjana label pseudo untuk 300 juta imej tidak berlabel, dan kemudian melatih model EfficientNet yang lebih besar sebagai model Pelajar untuk mempelajari imej berlabel dan imej pseudo sebenar. Dalam persediaan percubaan mereka, elemen utama ialah penambahan hingar semasa latihan model Pelajar, manakala model Guru tidak menambah hingar semasa proses penjanaan pseudo-label. Oleh itu, kaedah mereka dipanggil "Pelajar Bising", yang menggunakan kaedah kedalaman rawak, keciciran dan RandAugment untuk menambah hingar pada model Pelajar. Model Pelajar berprestasi lebih baik daripada model Guru, sebahagian besarnya disebabkan oleh faedah menambah hingar. Bunyi tambahan mempunyai kesan pengkompaunan untuk melicinkan sempadan keputusan yang dihasilkan oleh model pada kedua-dua data berlabel dan tidak berlabel. Terdapat beberapa tetapan teknikal penting lain untuk latihan kendiri model Pelajar, termasuk:

  • Model Pelajar tambah hendaklah cukup besar (iaitu lebih besar daripada model Guru) agar sesuai untuk lebih banyak data.
  • Model pelajar yang menambah hingar harus digabungkan dengan kaedah pengimbangan data, yang amat penting untuk mengimbangi bilangan imej berlabel pseudo untuk setiap berat kelas.
  • Teg pseudo lembut berfungsi lebih baik daripada teg keras.

Penambahan hingar pada model Pelajar juga meningkatkan pertahanan terhadap FGSM (serangan tanda kecerunan pantas, yang menggunakan kecerunan kehilangan data input dan melaraskan data input untuk memaksimumkan kerugian) Keteguhan, walaupun model tidak dioptimumkan untuk keteguhan lawan.

Du et al mencadangkan kaedah SentAugment dalam kertas kerja 2020 "Latihan kendiri Meningkatkan Pra-latihan untuk Pemahaman Bahasa Semulajadi", yang bertujuan untuk Ia menyelesaikan masalah data tidak berlabel yang tidak mencukupi dalam domain tersebut semasa melakukan latihan kendiri dalam bidang bahasa. Ia bergantung pada vektor ayat untuk mencari sampel dalam domain yang tidak berlabel daripada korpora besar dan menggunakan ayat yang diambil untuk latihan kendiri.

(3) Kurangkan bias pengesahan (Confirmation Bias)

Confirmation bias ialah masalah menyediakan pseudo-label yang salah kerana model Teacher tidak cukup matang. Penambahan label yang salah mungkin tidak menghasilkan model Pelajar yang lebih baik.

Untuk mengurangkan bias pengesahan, Eric Arazo et al dalam kertas kerja "Pseudo-Labeling and Confirmation Bias in Deep Semi-supervised Learning" Dua kaedah baharu dicadangkan dalam Pembelajaran Terselia) .

Salah satunya ialah kaedah Mixup menggunakan label lembut Memandangkan dua sampel OpenAI 研究员:数据不足时,如何实现监督学习 dan label sebenar dan label pseudo yang sepadan OpenAI 研究员:数据不足时,如何实现监督学习, persamaan label interpolasi boleh ditukar kepada softmax Cross-. kehilangan entropi output:

OpenAI 研究员:数据不足时,如何实现监督学习

Jika terdapat terlalu sedikit sampel berlabel, menggunakan kaedah Mixup tidak mencukupi. Oleh itu, pengarang kertas kerja terlebih sampel sampel label untuk menetapkan bilangan minimum sampel label dalam setiap kelompok mini. Ini lebih baik daripada pampasan berat untuk sampel label, kerana ia akan dikemas kini dengan lebih kerap, berbanding kemas kini yang kurang kerap dan lebih besar - yang sebenarnya lebih tidak stabil.

Seperti penyusunan konsistensi, penambahan data dan kaedah keciciran juga penting untuk memainkan peranan sebagai label pseudo.

Hieu Pham dan yang lain mencadangkan meta pseudo-label dalam kertas 2021 "Meta Pseudo Labels". model Guru. Model Guru dan model Pelajar dilatih secara serentak, model Guru belajar menghasilkan label pseudo yang lebih baik, dan model Pelajar belajar daripada label pseudo.

Tetapkan pemberat model Guru dan model Pelajar kepada OpenAI 研究员:数据不足时,如何实现监督学习 dan OpenAI 研究员:数据不足时,如何实现监督学习 masing-masing Kehilangan model Pelajar pada sampel berlabel ditakrifkan sebagai fungsi OpenAI 研究员:数据不足时,如何实现监督学习 OpenAI 研究员:数据不足时,如何实现监督学习, dan cenderung untuk mengoptimumkan model Guru untuk meminimumkan kerugian ini dengan sewajarnya.

OpenAI 研究员:数据不足时,如何实现监督学习

Walau bagaimanapun, mengoptimumkan persamaan di atas bukanlah satu tugas yang mudah. Meminjam idea MAML (Model-Agnostic Meta-Learnin), ia serupa dengan melakukan kemas kini kecerunan satu langkah pada OpenAI 研究员:数据不足时,如何实现监督学习 semasa melakukan pengiraan OpenAI 研究员:数据不足时,如何实现监督学习OpenAI 研究员:数据不足时,如何实现监督学习 berbilang langkah.

OpenAI 研究员:数据不足时,如何实现监督学习

Disebabkan penggunaan label pseudo lembut, fungsi objektif di atas ialah fungsi boleh dibezakan. Walau bagaimanapun, jika label pseudo keras digunakan, ia adalah fungsi yang tidak boleh dibezakan, jadi kaedah pembelajaran pengukuhan seperti REINFORCE diperlukan.

Proses pengoptimuman dijalankan secara berselang-seli antara dua model:

  • Kemas kini model pelajar: Memandangkan sekumpulan sampel tidak berlabel OpenAI 研究员:数据不足时,如何实现监督学习, kami boleh menjana label pseudo melalui fungsi OpenAI 研究员:数据不足时,如何实现监督学习 dan menggunakan keturunan kecerunan stokastik satu langkah untuk mengoptimumkan OpenAI 研究员:数据不足时,如何实现监督学习: OpenAI 研究员:数据不足时,如何实现监督学习.
  • Kemas kini model guru: Memandangkan sekumpulan sampel berlabel OpenAI 研究员:数据不足时,如何实现监督学习, kami berulang kali menggunakan kemas kini model Pelajar untuk mengoptimumkan OpenAI 研究员:数据不足时,如何实现监督学习: OpenAI 研究员:数据不足时,如何实现监督学习. Selain itu, objek UDA digunakan pada model Guru untuk menggabungkan penyusunan teratur.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 11: Pelabelan meta-pseudo berbanding separa selia atau seliaan sendiri yang lain kaedah pembelajaran pada imej Perbandingan prestasi dalam tugasan pengelasan. (Sumber imej: Makalah 2021 Hieu Pham et al. "Meta Pseudo Labels")

6 Regularisasi konsisten + label pseudo

boleh konsisten dua kaedah penyelarasan seksual dan pelabelan pseudo digabungkan dan digunakan untuk pembelajaran separa penyeliaan.

(1) MixMatch

Berthelot et al.’s 2019 paper "MixMatch: A Holistik Approach to Semi-supervised Learning" Kaedah MixMatch yang dicadangkan dalam "To Semi-supervised learning" -Pembelajaran Terselia" ialah kaedah holistik yang digunakan untuk pembelajaran separa penyeliaan. Ia menggunakan data tidak berlabel dengan menyepadukan kaedah berikut:

  • Penyaturan ketekalan: Biarkan model mengeluarkan ramalan yang sama untuk sampel tidak berlabel yang terganggu.
  • Pengurangan entropi (Pengurangan entropi): Biarkan model mengeluarkan ramalan yakin untuk data tidak berlabel.
  • Peningkatan MixUp: Jadikan model berkelakuan secara linear antara sampel.

Memandangkan sekumpulan data berlabel OpenAI 研究员:数据不足时,如何实现监督学习 dan data tidak berlabel OpenAI 研究员:数据不足时,如何实现监督学习, versi yang dipertingkatkan diperoleh melalui operasi OpenAI 研究员:数据不足时,如何实现监督学习, OpenAI 研究员:数据不足时,如何实现监督学习 dan OpenAI 研究员:数据不足时,如何实现监督学习 masing-masing Mewakili sampel yang dipertingkatkan dan label yang diramalkan untuk sampel yang tidak berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

di mana OpenAI 研究员:数据不足时,如何实现监督学习 ialah suhu penajaman, digunakan untuk mengurangkan pertindihan label yang diteka K ialah setiap bilangan versi dipertingkat yang dijana oleh sampel label; OpenAI 研究员:数据不足时,如何实现监督学习 ialah parameter dalam fungsi MixMatch. Untuk setiap OpenAI 研究员:数据不足时,如何实现监督学习, MixMatch menjana K versi dipertingkatkan, OpenAI 研究员:数据不足时,如何实现监督学习 bersamaan dengan k hingga 1, ...., K versi dipertingkatkan OpenAI 研究员:数据不足时,如何实现监督学习 dan model meneka label pseudo berdasarkan nilai purata OpenAI 研究员:数据不足时,如何实现监督学习.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 12: Proses "tekaan label" dalam MixMatch: purata sampel tidak berlabel yang dipertingkatkan K membetulkan taburan marginal yang diramalkan, dan akhirnya menajamkan taburan. (Sumber imej: Makalah 2019 Berthelot et al. "MixMatch: Kaedah Holistik untuk Pembelajaran Separuh Penyeliaan") Peningkatan MixUp bagi data tidak berlabel adalah amat penting. Mengalih keluar penajaman suhu pada pengedaran pseudo-label boleh menjejaskan prestasi dengan teruk. Untuk meneka label, mengira purata berbilang versi tambahan data tidak berlabel juga penting. Dalam kertas kerja 2020 "ReMixMatch: Pembelajaran Separuh Penyeliaan dengan Penjajaran Pengedaran dan Penambahan Pembesaran" (ReMixMatch: Pembelajaran Separuh Penyeliaan dengan Penjajaran Pengedaran dan Penambahan Pengukuhan), Berthelot et al seterusnya mencadangkan kaedah ReMixMatch, dengan memperkenalkan dua Mekanisme baharu berikut untuk menambah baik kaedah MixMatch:

OpenAI 研究员:数据不足时,如何实现监督学习 Rajah 13: Diagram dua penambahbaikan kaedah ReMixMatch kepada MixMatch kaedah Tunjukkan. (Sumber imej: kertas kerja 2020 Berthelot et al. "ReMixMatch: Pembelajaran separuh seliaan menggunakan penjajaran pengedaran dan penambat yang dipertingkatkan")

1. Kaedah ini menjadikan taburan marginal

hampir dengan taburan marginal label kebenaran tanah. Biarkan

menjadi pengedaran kelas bagi label kebenaran asas, dan OpenAI 研究员:数据不足时,如何实现监督学习 menjadi purata bergerak bagi pengedaran kelas yang diramalkan pada data tidak berlabel. Ramalan model untuk sampel tidak berlabel OpenAI 研究员:数据不足时,如何实现监督学习 dinormalkan kepada OpenAI 研究员:数据不足时,如何实现监督学习 untuk memadankan taburan marginal sebenar. OpenAI 研究员:数据不足时,如何实现监督学习OpenAI 研究员:数据不足时,如何实现监督学习Adalah penting untuk ambil perhatian bahawa pengurangan entropi bukanlah matlamat yang berguna jika taburan marginal tidak konsisten. Selain itu, andaian bahawa pengedaran kelas pada data berlabel dan tidak berlabel sepadan antara satu sama lain sememangnya terlalu mutlak dan mungkin tidak semestinya betul dalam tetapan dunia sebenar.

2. Memandangkan sampel yang tidak berlabel, versi "berlabuh" yang dipertingkatkan dengan lemah mula-mula dijana, dan kemudian kaedah CTAugment (Penambahan Teori Kawalan) digunakan untuk mengira purata versi K yang dipertingkatkan dengan kuat. CTAugment hanya sampel versi dipertingkatkan bagi model cakap balik yang ramalannya kekal dalam toleransi rangkaian.

Kerugian ReMixMatch terdiri daripada item berikut:

  • Kehilangan diawasi yang menggunakan kaedah penambahan dan pencampuran data
  • Kehilangan tanpa pengawasan yang menggunakan kaedah penambahan dan pencampuran data tetapi menggunakan label pseudo sebagai sasaran
  • Kehilangan entropi silang bagi satu imej tidak berlabel yang dipertingkatkan dengan kuat tanpa menggunakan kaedah campuran
  • Kehilangan putaran dalam pembelajaran diselia sendiri (kehilangan putaran ).

(2) DivideMix

Junnan Li et al. : Pembelajaran Kaedah DivideMix dicadangkan dalam (dengan Label Bising sebagai Pembelajaran Separa Penyeliaan), yang menggabungkan pembelajaran separa penyeliaan dengan pembelajaran menggunakan label bising (Belajar dengan label bising, LNL). Ia memodelkan pengedaran kehilangan setiap sampel melalui model campuran Gaussian (GMM), yang membahagikan data latihan secara dinamik kepada set data berlabel yang mengandungi sampel bersih dan set data tidak berlabel yang mengandungi sampel bising.

Mengikuti idea yang dicadangkan oleh Arazo et al dalam makalah 2019 "Pemodelan Noise Label Tanpa Selia dan Pembetulan Kehilangan", mereka Model campuran Gaussian binari dipasang pada kehilangan entropi silang. Sampel yang bersih dijangka mendapat kehilangan yang lebih rendah lebih cepat daripada sampel yang bising. Model campuran Gaussian dengan min yang lebih kecil sepadan dengan pengelompokan label bersih, yang dilambangkan di sini sebagai c. Jika kebarangkalian belakang model campuran Gaussian OpenAI 研究员:数据不足时,如何实现监督学习 (iaitu, kebarangkalian sampel tergolong dalam set sampel bersih) adalah lebih besar daripada ambang, sampel dianggap sampel bersih, jika tidak, ia dianggap bunyi bising. sampel.

Proses pengelompokan data dipanggil co-divide. Untuk mengelakkan bias pengesahan, kaedah DividImax melatih dua rangkaian bersilang secara serentak, di mana setiap rangkaian menggunakan bahagian berasingan set data daripada rangkaian lain, sama seperti cara Double Q-Learning berfungsi.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 14: DivideMix secara bebas melatih dua rangkaian untuk mengurangkan bias pengesahan. Kedua-dua rangkaian secara serentak menjalankan pembahagian kolaboratif, penghalusan kolaboratif dan tekaan kolaboratif. (Sumber imej: kertas kerja Junnan Li et al. 2020 "DivideMix: Menggunakan Pembelajaran Label Bising untuk Melaksanakan Pembelajaran Separuh Penyeliaan")

Berbanding dengan MixMatch, DivideMix mempunyai ‎langkah pembahagian bersama tambahan untuk memproses sampel yang bising, dan penambahbaikan berikut telah dibuat semasa latihan: Penapisan bersama label: Ia menyelaraskan label kebenaran tanah OpenAI 研究员:数据不足时,如何实现监督学习 dengan gabungan ramalan rangkaian OpenAI 研究员:数据不足时,如何实现监督学习, dengan OpenAI 研究员:数据不足时,如何实现监督学习 ialah purata daripada berbilang versi dipertingkatkan OpenAI 研究员:数据不足时,如何实现监督学习 dengan syarat rangkaian lain menghasilkan kebarangkalian set data yang bersih OpenAI 研究员:数据不足时,如何实现监督学习.

Tekaan bersama label: Ia membuat purata ramalan dua model untuk sampel data tidak berlabel.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 15: Algoritma DivideMix. (Sumber imej: kertas kerja Junnan Li et al. 2020 "DivideMix: Menggunakan Pembelajaran Label Bising untuk Melaksanakan Pembelajaran Separuh Penyeliaan")

(3) FixMatch

Kaedah FixMatch yang dicadangkan oleh Sohn et al dalam makalah 2020 "FixMatch: Memudahkan Pembelajaran Separuh Diawasi dengan Konsistensi dan Keyakinan" menggunakan kaedah peningkatan yang lemah untuk mengesan sampel tidak berlabel menjana label pseudo dan hanya menyimpan ramalan berkeyakinan tinggi. Di sini, peningkatan lemah dan penapisan berkeyakinan tinggi membantu menjana sasaran label pseudo yang boleh dipercayai berkualiti tinggi. FixMatch kemudiannya meramalkan pseudo-label ini diberikan sampel yang dipertingkatkan.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 16: Ilustrasi cara kaedah FixMatch berfungsi. (Sumber imej: makalah 2020 Sohn et al. "FixMatch: Memudahkan pembelajaran separa penyeliaan menggunakan konsistensi dan keyakinan")

OpenAI 研究员:数据不足时,如何实现监督学习

di mana OpenAI 研究员:数据不足时,如何实现监督学习 ialah label pseudo bagi sampel tidak berlabel; OpenAI 研究员:数据不足时,如何实现监督学习 ialah hiperparameter yang menentukan saiz relatif OpenAI 研究员:数据不足时,如何实现监督学习 dan OpenAI 研究员:数据不足时,如何实现监督学习. Peningkatan lemah OpenAI 研究员:数据不足时,如何实现监督学习: Terjemahan standard dan peningkatan transformasi. Peningkatan kukuh OpenAI 研究员:数据不足时,如何实现监督学习: Kaedah peningkatan data seperti AutoAugment, Cutout, RandAugment dan CTAugment.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 17: Prestasi FixMatch dan beberapa kaedah pembelajaran separa penyeliaan lain mengenai tugas pengelasan imej. (Sumber imej: makalah 2020 Sohn et al. "FixMatch: Memudahkan pembelajaran separa penyeliaan menggunakan konsistensi dan keyakinan")

Menurut kajian ablasi FixMatch,

  • Menggunakan parameter suhu T tidak mempunyai kesan ketara ke atas menajamkan taburan ramalan apabila menggunakan ambang τ.
  • Cutout dan CTAugment ialah kaedah peningkatan kukuh yang memainkan peranan penting dalam mencapai prestasi model yang baik.
  • Model menyimpang pada awal latihan apabila meneka label menggunakan rangsangan kuat dan bukannya rangsangan lemah. Jika tetulang yang lemah dibuang, model akan melebihkan label yang diteka.
  • Menggunakan peningkatan lemah dan bukannya peningkatan kukuh untuk ramalan pseudo-label akan membawa kepada prestasi model yang tidak stabil. Peningkatan data yang kukuh adalah penting untuk kestabilan prestasi model.

7 Digabungkan dengan pra-latihan yang berkuasa

Kaedah ini pra-melatih model bebas tugas pada korpus data besar tanpa pengawasan melalui pembelajaran penyeliaan kendiri, The model kemudian diperhalusi pada tugas hiliran menggunakan set data berlabel kecil, yang merupakan paradigma biasa, terutamanya dalam tugas bahasa. Penyelidikan menunjukkan bahawa model boleh memperoleh keuntungan tambahan jika mereka menggabungkan pembelajaran separa penyeliaan dengan pra-latihan.

Kertas kerja 2020 Zoph et al. "Memikirkan Semula Pra-latihan dan Latihan Kendiri" mengkaji betapa lebih berkesan latihan kendiri berbanding pra-latihan . Persediaan percubaan mereka adalah menggunakan ImageNet untuk pra-latihan atau latihan kendiri untuk meningkatkan hasil COCO. Adalah penting untuk ambil perhatian bahawa apabila menggunakan ImageNet untuk latihan kendiri, ia membuang label dan hanya menggunakan sampel ImageNet sebagai titik data tidak berlabel. He Kaiming dan yang lain telah membuktikan dalam kertas kerja 2018 "Memikirkan Semula Pra-latihan ImageNet" bahawa jika tugas hiliran (seperti pengesanan sasaran) sangat berbeza, kesan pra-latihan klasifikasi ImageNet tidak begitu baik.

OpenAI 研究员:数据不足时,如何实现监督学习

Rajah 18: (a) Keputusan penambahan data (daripada lemah kepada kuat) dan (b) Kesan saiz set data label pada prestasi pengesanan objek. Dalam legenda: "Rand Init" mewakili model yang dimulakan dengan pemberat rawak `ImageNet` dimulakan menggunakan model pra-latihan dengan ketepatan Top-1 84.5% pada dataset ImageNet ++` dimulakan menggunakan Top-; 1 pada dataset ImageNet -1 dimulakan dengan model pra-latihan dengan ketepatan 86.9%. (Sumber imej: kertas kerja Zoph et al. 2020 "Memikirkan Semula Pra-latihan dan Latihan Kendiri")

Percubaan ini memperoleh satu siri penemuan menarik:

  • Semakin banyak sampel berlabel tersedia untuk tugas hiliran, semakin kurang berkesan latihan pra. Pralatihan berguna dalam mod data rendah (20%), tetapi neutral atau tidak produktif dalam situasi data tinggi.
  • Dalam mod data tinggi/dorongan kuat, latihan kendiri membantu walaupun pralatihan tidak produktif.
  • Walaupun menggunakan sumber data yang sama, latihan kendiri boleh membawa peningkatan tambahan berbanding pralatihan.
  • Pralatihan kendiri (cth. pralatihan melalui SimCLR) boleh menjejaskan prestasi model dalam mod data tinggi, sama seperti pralatihan diselia.
  • Latihan bersama objektif pembelajaran yang diselia dan diselia sendiri membantu menyelesaikan ketidakpadanan antara tugas pra-latihan dan hiliran. Pralatihan, latihan bersama, dan latihan kendiri semuanya adalah tambahan.
  • Label hingar atau label bukan sasaran (iaitu label pra-latihan yang tidak sejajar dengan label tugas hiliran) adalah lebih teruk daripada label pseudo sasaran.
  • Latihan kendiri secara pengiraan lebih mahal daripada penalaan halus pada model pra-latihan.

Kertas 2020 Ting Chen et al. "Model Penyeliaan Kendiri Besar ialah Pelajar Separuh Selia yang Kuat", kaedah prosedur tiga langkah dicadangkan, yang menggabungkan kelebihan pra-latihan yang diselia, penalaan halus dan latihan kendiri yang diselia:

1

2. Mengawasi penalaan halus model pada beberapa contoh berlabel, menggunakan saraf besar (dalam dan lebar) Rangkaian adalah penting kerana lebih besar model, lebih baik prestasi dengan lebih sedikit contoh berlabel.

3. Gunakan label pseudo dalam latihan kendiri untuk menyaring contoh yang tidak berlabel.

a. Pengetahuan model besar boleh disuling menjadi model kecil kerana penggunaan khusus tugasan ini tidak memerlukan kapasiti tambahan perwakilan yang dipelajari.

b. Formula kehilangan penyulingan adalah seperti berikut, di mana rangkaian Guru adalah tetap dan beratnya adalah OpenAI 研究员:数据不足时,如何实现监督学习. Rajah 19: Separa diselia Rangka kerja pembelajaran menggunakan korpora data tidak berlabel melalui pra-latihan tanpa pengawasan tugas-agnostik (kiri) dan latihan kendiri dan penyulingan khusus tugasan (kanan). (Sumber imej: kertas kerja 2020 Ting Chen et al. "Model penyeliaan kendiri berskala besar ialah pelajar separa penyeliaan yang berkuasa")

Pengarang kertas kerja membuat persembahan pada tugas klasifikasi ImageNet yang dicuba. Pralatihan diselia sendiri menggunakan SimCLRv2, peningkatan langsung SimCLR. Pemerhatian mereka dalam kajian empirikal mengesahkan beberapa keputusan yang dicadangkan oleh Zoph et al pada 2020: OpenAI 研究员:数据不足时,如何实现监督学习

OpenAI 研究员:数据不足时,如何实现监督学习Pembelajaran label untuk model yang lebih besar adalah lebih cekap;

Ketua projek yang lebih besar/lebih dalam dalam SimCLR boleh mempertingkatkan pembelajaran perwakilan;

    Rajah 20: Perbandingan prestasi SimCLRv2 + penyulingan separa diselia pada klasifikasi ImageNet. (Sumber imej: kertas kerja 2020 Ting Chen et al. "Model penyeliaan kendiri berskala besar ialah pelajar separa penyeliaan yang berkuasa")
  • Dengan menganalisis separa seliaan terkini kaedah pembelajaran Untuk meringkaskan, kita dapati bahawa beberapa kaedah bertujuan untuk mengurangkan bias pengesahan:
  • Gunakan hingar yang berkesan dan pelbagai pada sampel melalui kaedah penambahan data lanjutan.

MixUp ialah kaedah penambahan data yang berkesan apabila memproses imej. Kaedah ini juga boleh digunakan untuk tugas bahasa untuk mencapai pengoptimuman tambahan yang lebih kecil (Guo et al. 2019).OpenAI 研究员:数据不足时,如何实现监督学习

Tetapkan ambang dan alih keluar label pseudo dengan keyakinan rendah.

Tetapkan bilangan minimum sampel berlabel dalam setiap kumpulan mini

Tajamkan pengedaran pseudo-label untuk mengurangkan pertindihan kelas >

    Jika anda perlu memetik, sila nyatakan:

Atas ialah kandungan terperinci Penyelidik OpenAI: Cara melaksanakan pembelajaran diselia apabila data tidak mencukupi. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam