Rumah > Artikel > Peranti teknologi > Analisis mendalam tentang konsep regularisasi dan kepentingannya dalam pembelajaran mesin
Dalam pembelajaran mesin, regularisasi ialah teknik yang digunakan untuk mengelakkan model daripada dipasang secara berlebihan. Dengan memperkenalkan istilah penalti kepada pekali model, regularisasi boleh mengehadkan saiz parameter model, dengan itu meningkatkan keupayaan generalisasi model. Teknik ini boleh meningkatkan kebolehpercayaan, kelajuan dan ketepatan model. Regularization pada dasarnya mengehadkan kerumitan model dengan menambahkan parameter tambahan, dengan itu menghalang masalah overfitting model yang disebabkan oleh parameter rangkaian yang berlebihan.
Tujuan regularisasi adalah untuk mengurangkan varians penganggar dengan memudahkan penganggar, dengan itu meningkatkan keupayaan generalisasi model. Walau bagaimanapun, penyelarasan mencapai ini dengan cara yang meningkatkan berat sebelah. Biasanya, peningkatan bias berlaku apabila saiz sampel kecil atau apabila bilangan parameter adalah besar, iaitu apabila model terdedah kepada overfitting. Walau bagaimanapun, apabila regularisasi digunakan dengan betul, ia memastikan jumlah bias yang betul diperkenalkan, sekali gus mengelakkan masalah overfitting.
Peranan dan kepentingan penyusunan semula adalah untuk mengelakkan keterlaluan. Apabila overfitting berlaku, keupayaan generalisasi model hampir hilang. Ini bermakna model hanya berfungsi pada set data latihan dan bukan pada set data lain. Melalui penyelarasan, saiz parameter model boleh dihadkan dengan memperkenalkan istilah penalti, dengan itu mengurangkan kerumitan model dan meningkatkan keupayaan generalisasinya. Ini membolehkan model menyesuaikan diri dengan lebih baik kepada set data baharu, meningkatkan prestasi ramalan dan kestabilannya.
Sebagai contoh, regularisasi boleh dilihat sebagai mengawal keseimbangan antara bias dan varians dengan melaraskan parameter a. Apabila nilai a lebih tinggi, pekali model berkurangan, dengan itu mengurangkan varians. Menaikkan a secara beransur-ansur boleh mengurangkan varians dan mengelak pemasangan berlebihan, tetapi selepas melebihi ambang tertentu, berat sebelah akan diperkenalkan, yang membawa kepada kurang muat.
Regulasi berfungsi dengan menambahkan istilah penalti dengan Jumlah Baki Kuasa Dua (RSS) kepada model yang kompleks. Ambil persamaan regresi linear mudah sebagai contoh. di mana Y mewakili ciri atau tindak balas bergantung.
Y ialah lebih kurang β0+β1X1+β2X2+…+βpXp, X1, X2,…Xp ialah ciri bebas atau pembolehubah peramal bagi Y, β0, β1,…..βn mewakili pekali pembolehubah yang berbeza atau pembolehubah peramal (X ) Anggaran, yang menerangkan saiz berat yang dilampirkan pada ciri.
Proses pemasangan termasuk fungsi kehilangan dan fungsi jumlah sisa kuasa dua (RSS). Pekali dipilih dengan cara yang meminimumkan fungsi kehilangan.
Pekali akan diselaraskan berdasarkan data latihan. Jika terdapat bunyi bising dalam data latihan, anda akan mendapati bahawa pekali anggaran tidak akan digeneralisasikan dengan baik kepada data masa hadapan. Di sinilah penyelarasan masuk, mengecut dan menyelaraskan anggaran yang dipelajari melalui latihan kepada sifar.
dropout
Dalam keciciran, nombor rawak yang diaktifkan akan melatih rangkaian dengan lebih berkesan. Pengaktifan ialah output yang diperoleh apabila input didarab dengan berat. Jika bahagian tertentu pengaktifan dialih keluar pada setiap lapisan, tiada pengaktifan khusus akan mempelajari model input. Ini bermakna model input tidak mengalami sebarang overfitting.
Penormalan Kelompok
Penormalan kelompok berjaya menormalkan output lapisan pengaktifan sebelumnya dengan menolak min kelompok dan membahagikan dengan sisihan piawai kelompok. Ia memperkenalkan dua parameter boleh dilatih kepada setiap lapisan supaya output ternormal didarab dengan gamma dan beta. Nilai gamma dan beta akan ditemui melalui rangkaian saraf. Dengan melemahkan gandingan antara parameter lapisan awal dan parameter lapisan seterusnya, kadar pembelajaran bertambah baik, ketepatan bertambah baik, dan masalah hanyutan kovarians diselesaikan.
Pembesaran data
Pembesaran data melibatkan penggunaan data sedia ada untuk mencipta data sintetik, sekali gus meningkatkan jumlah sebenar data yang tersedia. Membantu model pembelajaran mendalam menjadi lebih tepat dengan menjana perubahan dalam data yang mungkin dihadapi oleh model di dunia sebenar.
Berhenti Awal
Gunakan sebahagian daripada set latihan sebagai set pengesahan dan ukur prestasi model terhadap set pengesahan tersebut. Jika prestasi pada set pengesahan ini bertambah buruk, latihan model dihentikan serta-merta.
L1 Regularization
Model regresi yang menggunakan teknik regularization L1 dipanggil Lasso Regression. Model regresi Lasso, Operator Pengecutan dan Pemilihan Mutlak Terkecil, menambah "nilai mutlak" pekali sebagai istilah penalti kepada fungsi kehilangan.
L2 regularization
Model regresi menggunakan regularization L2 dipanggil regresi rabung. Model regresi rabung ialah regresi rabung Dalam regresi rabung, amplitud segi empat sama pekali ditambah kepada fungsi kehilangan sebagai istilah penalti.
Atas ialah kandungan terperinci Analisis mendalam tentang konsep regularisasi dan kepentingannya dalam pembelajaran mesin. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!