ホームページ >テクノロジー周辺機器 >AI >機械学習における正則化とは何ですか?

機械学習における正則化とは何ですか?

王林
王林転載
2023-11-06 11:25:01936ブラウズ

1. はじめに

機械学習の分野では、トレーニング プロセス中に関連するモデルが過学習または過小学習になる可能性があります。これを防ぐために、機械学習で正則化操作を使用してモデルをテストセットに適切に適合させます。一般に、正則化操作は、過学習や過小学習の可能性を減らすことで、誰もが最適なモデルを取得できるようにします。

この記事では、正則化とは何か、正則化の種類について理解します。さらに、バイアス、分散、過小適合、過適合などの関連する概念についても説明します。

くだらない話はやめて、始めましょう!

2. バイアスと分散

バイアスと分散は、学習したモデルと実際のモデルを説明するために使用されます。ギャップの 2 つの側面

を書き直す必要があります。この 2 つの定義は次のとおりです。

  • バイアスとは、 use all 可能なトレーニング データ セットでトレーニングされたすべてのモデルの出力の平均と、真のモデルの出力値の差。
  • 分散は、異なるトレーニング データセットでトレーニングされたモデルの出力値間の差です。

機械学習における正則化とは何ですか?

# バイアスにより、個々のデータ ポイントに対するモデルの感度が低下する一方で、データの一般化が促進され、孤立したデータポイントに対するモデルの感度。必要な機能がそれほど複雑ではないため、トレーニング時間も短縮できます。高いバイアスは、ターゲット関数の信頼性が高いと想定されていることを示しますが、場合によってはモデルの適合不足につながることがあります。

機械学習における分散 (分散) は、小さい値に対するモデルの感度を指します。データセットの変更。間違いです。データセットには大きな変動があるため、アルゴリズムはトレーニング セット内のノイズと外れ値をモデル化します。この状況は、多くの場合、過剰適合と呼ばれます。新しいデータセットで評価すると、モデルは基本的にすべてのデータポイントを学習するため、正確な予測を提供できません

比較的バランスの取れたモデルバイアスが低く分散が小さい場合、バイアスが高く分散が大きい場合は、過小適合と過適合が生じます。

3. アンダーフィッティング

モデルがトレーニング データのパターンを正しく学習できず、新しいデータに一般化できない場合にアンダーフィッティングが発生します。アンダーフィッティングされたモデルはトレーニング データのパフォーマンスが低く、不正確な予測につながる可能性があります。高いバイアスと低い分散が発生すると、アンダーフィッティングが発生する傾向があります

機械学習における正則化とは何ですか?


# #4.過学習

モデルがトレーニング データでは非常に優れたパフォーマンスを発揮するが、テスト データではパフォーマンスが低下する場合、それは過学習 (新しいデータ) と呼ばれます。この場合、機械学習モデルはトレーニング データのノイズに適合し、テスト データに対するモデルのパフォーマンスに悪影響を及ぼします。バイアスが低く分散が大きいと、過学習が発生する可能性があります。

機械学習における正則化とは何ですか?


5. 正則化の概念

「規則的な」という用語「」では、調整された損失関数を削減し、過剰適合または過小適合を回避するために機械学習モデルを調整する方法について説明します。

機械学習における正則化とは何ですか?


# 正則化手法を使用することで、機械学習モデルをより正確に適合させることができます。特定のテスト セットに効果的に適用することで、テスト セット内のエラーを効果的に削減します

#6.L1 正則化

#カラー回帰と比較して、L1 正則化の実装は主に損失関数にペナルティ項を追加することです。この項のペナルティ値は、次のようにすべての係数の絶対値の合計です。

機械学習における正則化とは何ですか?

Lasso 回帰モデルでは、回帰係数の絶対値を増やすことでペナルティが増加します。リッジ回帰項目と同様の方法で実現します。さらに、L1 正則化は、線形回帰モデルの精度を向上させる優れたパフォーマンスを発揮します。同時に、L1 正則化はすべてのパラメーターに均等にペナルティを課すため、一部の重みがゼロになる可能性があり、その結果、特定の特徴を削除できるスパース モデルが生成されます (重み 0 は削除と同等です)。

#7. L2 正則化

L2 正則化は、損失関数にペナルティ項を追加することによっても実現されます。ペナルティ項はすべての係数の二乗の合計に等しいということです。次のように:##############################

一般に、データが多重共線性 (独立変数の相関性が高い) を示す場合に採用される手法と考えられます。多重共線性における最小二乗推定 (OLS) は不偏ですが、分散が大きいため、観測値が実際の値と大きく異なる可能性があります。 L2 により、回帰推定の誤差がある程度減少します。通常、多重共線性の問題を解決するには収縮パラメーターを使用します。 L2 正則化により、重みの固定比率が減り、重みが平滑化されます。

8. 概要

上記の分析を経て、この記事の関連する正則化に関する知識は次のように要約されます。

##L1 正則化では、特徴の選択に使用できる疎な重み行列、つまり疎なモデルを生成できます;

L2 正則化では、モデルの過学習を防ぐことができます。ある程度、L1 は過学習を防止し、モデルの汎化能力を向上させることもできます。

L1 (ラグランジュ) 正則化では、パラメーターの事前分布がラプラス分布であると仮定し、モデルのスパース性を確保できます。つまり、一部のパラメータは 0 に等しくなります。

L2 (リッジ回帰) の仮定は、パラメータの事前分布がガウス分布であるということであり、これによりモデルの安定性が保証されます。

実際のアプリケーションでは、特徴が高次元で疎である場合は、L1 正則化を使用する必要があります。特徴が低次元で密である場合は、L1 正則化を使用する必要があります。 、L2 正規化を使用する必要があります

以上が機械学習における正則化とは何ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。