>백엔드 개발 >파이썬 튜토리얼 >과적합과 과소적합

과적합과 과소적합

Linda Hamilton
Linda Hamilton원래의
2024-11-28 06:18:11130검색

커피 한잔 사주세요😄

*메모:

  • 내 게시물에서는 Vanishing Gradient 문제, Exploding Gradient 문제 및 Dying ReLU 문제에 대해 설명합니다.
  • 내 게시물에서는 PyTorch의 레이어에 대해 설명합니다.
  • 내 게시물에서는 PyTorch의 활성화 기능에 대해 설명합니다.
  • 내 게시물에서는 PyTorch의 손실 기능에 대해 설명합니다.
  • 내 게시물에서는 PyTorch의 최적화 프로그램에 대해 설명합니다.

Overfitting vs Underfitting

*오버피팅과 과소피팅 모두 홀드아웃 방법이나 교차 검증(K-Fold Cross-Validation)으로 감지할 수 있습니다. *교차검증이 더 좋습니다.

과적합:

  • 모델이 기차 데이터에 대해서는 많이 정확하게 예측할 수 있지만 새 데이터(테스트 데이터 포함)에 대해서는 정확도가 낮아서 모델이 새 데이터보다 기차 데이터에 훨씬 더 적합하다는 문제입니다.
  • 다음과 같은 이유로 발생합니다.
    • 학습 데이터가 작아(충분하지 않음) 모델이 소수의 패턴만 학습할 수 있습니다.
    • 학습 데이터는 특정(제한적), 유사 또는 동일한 데이터가 많지만 다양한 데이터가 많지 않아 모델이 적은 수의 패턴만 학습할 수 있는 불균형(편향)입니다.
    • 열차 데이터에는 노이즈(노이즈 데이터)가 많기 때문에 모델은 노이즈의 패턴을 많이 학습하지만 일반 데이터의 패턴은 학습하지 않습니다. *노이즈(noisy data)는 이상값, 이상치 또는 때로는 중복된 데이터를 의미합니다.
    • 세대 수가 너무 많아 훈련 시간이 너무 깁니다.
    • 모델이 너무 복잡합니다.
  • 다음을 통해 완화할 수 있습니다.
    1. 더 큰 열차 데이터.
    2. 다양한 데이터가 많아요.
    3. 소음을 줄입니다.
    4. 데이터세트를 섞습니다.
    5. 훈련을 조기 중단합니다.
    6. 앙상블 학습
    7. 모델 복잡성을 줄이기 위한 정규화: *메모:
      • Dropout(정규화)이 있습니다. *내 게시물에서는 Dropout 레이어에 대해 설명합니다.
      • L1 Norm 또는 Lasso Regression이라고도 하는 L1 정규화가 있습니다.
      • L2 Norm 또는 Ridge Regression이라고도 하는 L2 정규화가 있습니다.
      • 내 게시물에서는 linalg.norm()에 대해 설명하고 있습니다.
      • 내 게시물에서는 linalg.Vector_norm()에 대해 설명합니다.
      • 내 게시물에서는 linalg.matrix_norm()에 대해 설명합니다.

과소적합:

  • 모델이 train 데이터와 새 데이터(테스트 데이터 포함) 모두에 대해 정확한 예측을 많이 할 수 없어 모델이 train 데이터와 새 데이터 모두에 맞지 않는 문제입니다.
  • 다음과 같은 이유로 발생합니다.
    • 모델이 너무 단순합니다(복잡하지 않음).
    • 교육 시간이 너무 짧고 Epoch 수가 너무 적습니다.
    • 과도한 정규화(드롭아웃, L1 및 L2 정규화)가 적용되었습니다.
  • 다음을 통해 완화할 수 있습니다.
    1. 모델 복잡성이 증가합니다.
    2. 에포크 수를 늘려 학습 시간을 늘립니다.
    3. 정규화 감소.

과대적합과 과소적합은 상충 관계입니다.

과대적합 완화(5., 6.7.)가 너무 많으면 편향이 높고 분산이 낮은 과소적합이 발생하고 과소적합 완화가 너무 많습니다( 1., 2. 그리고 3.) 낮은 편향과 높은 분산으로 과적합을 초래하므로 완화는 아래와 같이 균형을 이루어야 합니다.

*메모:

  • 편향과 분산은 상충됩니다라고 말할 수도 있습니다. 편향을 줄이면 분산이 증가하고 분산을 줄이면 편향이 증가하므로 균형을 이루어야 하기 때문입니다. *모델 복잡성을 높이면 편향은 줄어들지만 분산은 증가하고, 모델 복잡성을 줄이면 분산은 줄어들지만 편향은 증가합니다.
  • 바이어스가 낮으면 정확도가 높고, 바이어스가 높으면 정확도가 낮습니다.
  • 낮은 분산은 높은 정밀도를 의미하고, 높은 분산은 낮은 정밀도를 의미합니다.

Overfitting vs Underfitting

Overfitting vs Underfitting

위 내용은 과적합과 과소적합의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.