首頁 >科技週邊 >人工智慧 >深入解析機器學習中的正規化概念及其意義

深入解析機器學習中的正規化概念及其意義

PHPz
PHPz轉載
2024-01-23 15:30:221253瀏覽

深入解析機器學習中的正規化概念及其意義

在機器學習中,正規化是一種用來防止模型過度擬合的技術。透過對模型的係數引入懲罰項,正規化可以限制模型參數的大小,從而提高模型的泛化能力。這種技術可以提高模型的可靠性、速度和準確性。正則化本質上是透過添加額外的參數來限制模型的複雜度,從而防止網路參數過大導致模型過度擬合的問題。

正規化會增加偏差嗎?

正規化的目的是透過簡化估計量來減少估計量的方差,從而提高模型的泛化能力。然而,正則化會以增加偏差的方式來實現這一目標。通常情況下,偏差的增加發生在樣本量較少或參數數量較多的情況下,即模型容易過擬合的情況。然而,當正則化正確地應用時,它可以確保引入適量的偏差,從而避免過度擬合的問題。

正則化的作用和意義

正則化的作用和意義是為了防止過度擬合。當發生過擬合時,模型的泛化能力幾乎喪失。這意味著模型只適用於訓練資料集,而不能適用於其他資料集。透過正則化,可以透過引入懲罰項來限制模型參數的大小,從而減少模型的複雜度,並提高其泛化能力。這樣可以使模型更好地適應新的資料集,提高其預測性能和穩定性。

舉個例子,正規化可以看成是透過調整參數a來控制偏差和變異數之間的平衡。當a的值較高時,模型的係數會減小,從而減少變異數。逐漸增大的a可以減少方差,避免過度擬合,但超過某個閾值後,會引入偏差,導致欠擬合。

正規化的原理

正則化透過在複雜模型中加入帶有殘差平方和(RSS)的懲罰項來發揮作用。以簡單的線性迴歸方程式為例。其中Y表示依賴特徵或反應。

Y近似β0 β1X1 β2X2 … βpXp,X1、X2、…Xp是Y的獨立特徵或預測變量,β0、β1、…..βn表示不同變量或預測變量(X)的係數估計,它描述了附加到特徵的權重大小。

擬合過程包括損失函數、殘差平方和(RSS)函數。以最小化損失函數的方式選擇係數。

係數將根據訓練資料進行調整。如果訓練資料中有噪聲,就會發現估計的係數不會很好地泛化到未來的資料。這就是正則化發揮作用的地方,將那些訓練學習到的估計值縮小並正則化為零。

正規化有哪些型別

dropout

在dropout中,啟動的隨機數會更有效地訓練網路。激活是將輸入乘以權重時所得到的輸出。如果在每一層都刪除了啟動的特定部分,則沒有特定的激活會學習輸入模型。這意味著輸入模型不會出現任何過度擬合。

批量歸一化

批量歸一化通過減去批量均值並除以批量標準差來設法歸一化前一個激活層的輸出。它會在每一層引入兩個可訓練參數,以便標準化輸出乘以gamma和beta。 gamma和beta的值將透過神經網路找到。透過弱化初始層參數和後面層參數之間的耦合來提高學習率,提高精度,並解決協方差漂移問題。

資料擴充功能

資料擴充功能涉及使用現有資料建立合成數據,從而增加可用資料的實際數量。透過生成模型在現實世界中可能遇到的數據變化,幫助深度學習模型變得更加精確。

提前停止

使用訓練集的一部分作為驗證集,並根據該驗證集衡量模型的效能。如果此驗證集的效能變差,則立即停止對模型的訓練。

L1正規化

使用L1正規化技術的迴歸模型稱為套索迴歸。 Lasso迴歸模型即Least Absolute Shrinkage and Selection Operator,將係數的「絕對值」作為懲罰項加入損失函數。

L2正規化

使用L2正規化的迴歸模型稱為嶺迴歸。嶺迴歸模型即Ridge迴歸,在Ridge迴歸中係數的平方幅度會作為懲罰項加入損失函數。

以上是深入解析機器學習中的正規化概念及其意義的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:163.com。如有侵權,請聯絡admin@php.cn刪除