首頁  >  文章  >  科技週邊  >  機器學習超參調優:常用八種方法

機器學習超參調優:常用八種方法

王林
王林轉載
2023-04-11 14:28:031340瀏覽

機器學習演算法需要使用者定義的輸入來實現準確性和通用性之間的平衡。這個過程稱為超參數調整。有多種工具和方法可用於調整超參數。

機器學習超參調優:常用八種方法

我們整理了一份用於調整機器學習模型超參數的前八種方法的清單。

1.貝葉斯最佳化

貝葉斯最佳化已成為機器學習演算法超參數調整的有效工具,更具體地說,適用於深度神經網路等複雜模型。它提供了一個有效的框架來優化昂貴的黑盒子功能,而無需知道它的形式。它已應用於多個領域,包括學習最優機器人力學、序列實驗設計和合成基因設計。

2.遺傳演算法

遺傳演算法 (EA) 是一種最佳化演算法,它透過根據稱為算子的某些規則修改一組候選解決方案(種群)來工作。 EA 的主要優勢之一是它們的通用性:這意味著 EA 可以在廣泛的條件下使用,因為它們簡單且獨立於潛在問題。在超參數調整問題中,遺傳演算法已被證明比基於精度/速度的網格搜尋技術表現更好。

3.基於梯度的最佳化

基於梯度的最佳化是一種最佳化多個超參數的方法,基於機器學習模型選擇標準相對於超參數的梯度計算。當滿足訓練標準的一些可微性和連續性條件時,可以應用這種超參數調整方法。

4.網格搜尋

網格搜尋是超參數調優的基本方法。它對使用者指定的超參數集執行詳盡的搜尋。這種方法是最直接的導致最準確的預測。使用這種調優方法,使用者可以找到最佳組合。網格搜尋適用於幾個超參數,但是搜尋空間有限。

5.Keras Tuner

Keras Tuner是一個函式庫,允許使用者為機器學習或深度學習模型找到最佳超參數。該函式庫有助於查找核心大小、最佳化學習率和不同的超參數。 Keras Tuner可用於為各種深度學習模型取得最佳參數,以實現最高精度。

6.基於族群的最佳化

基於族群的方法本質上是一系列基於隨機搜尋(如遺傳演算法)的方法。最廣泛使用的基於種群的方法之一是 DeepMind 提出的基於種群的訓練(PBT)。 PBT在兩個方面,是一種獨特的方法:

  • 它允許在訓練期間使用自適應超參數
  • 它結合了並行搜尋和順序最佳化

7.ParamILS

ParamILS(參數配置空間中的迭代局部搜尋)是一種用於自動演算法配置的通用隨機局部搜尋方法。 ParamILS 是一種自動演算法配置方法,有助於開發高效能演算法及其應用程式。

ParamILS 使用預設和隨機設定進行初始化,並採用迭代第一改進作為輔助本地搜尋過程。它還使用固定數量的隨機移動來進行擾動,並且總是接受更好或同樣好的參數配置,但會隨機重新初始化搜尋。

8.隨機搜尋

隨機搜尋可以說是網格搜尋的基本改進。此方法是指對可能參數值的某些分佈的超參數進行隨機搜尋。搜尋過程繼續進行,直到達到所需的精確度。隨機搜索類似於網格搜索,但已證明比後者創建更好的結果。此方法通常被用作 HPO 的基線來衡量新設計演算法的效率。儘管隨機搜尋比網格搜尋更有效,但它仍然是計算密集型方法。

以上是機器學習超參調優:常用八種方法的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除