>  기사  >  기술 주변기기  >  그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

王林
王林앞으로
2023-04-13 17:52:031218검색

그라디언트 부스팅 알고리즘은 가장 일반적으로 사용되는 앙상블 기계 학습 기술 중 하나입니다. 이 모델은 일련의 약한 결정 트리를 사용하여 강력한 학습자를 구축합니다. 이는 XGBoost 및 LightGBM 모델의 이론적 기반이기도 하므로 이 기사에서는 처음부터 그래디언트 부스팅 모델을 구축하고 이를 시각화하겠습니다.

그라디언트 부스팅 알고리즘 소개

그라디언트 부스팅 알고리즘은 여러 개의 약한 분류기를 구축한 다음 이를 강력한 분류기로 결합하여 모델의 예측 정확도를 향상시키는 앙상블 학습 알고리즘입니다.

그라디언트 부스팅 알고리즘의 원리는 다음 단계로 나눌 수 있습니다.

  1. 모델 초기화: 일반적으로 초기 분류자로 간단한 모델(예: 의사결정 트리)을 사용할 수 있습니다.
  2. 손실 함수의 음의 기울기 계산: 각 샘플 포인트에 대해 현재 모델에서 손실 함수의 음의 기울기를 계산합니다. 이는 새 분류기에 현재 모델의 오류를 맞추도록 요청하는 것과 같습니다.
  3. 새 분류기 학습: 이러한 음의 기울기를 대상 변수로 사용하여 새로운 약한 분류기를 학습합니다. 이 약한 분류기는 의사결정 트리, 선형 모델 등과 같은 모든 분류기가 될 수 있습니다.
  4. 모델 업데이트: 원래 모델에 새 분류자를 추가하고 가중 평균 또는 기타 방법을 사용하여 결합합니다.
  5. 반복 반복: 미리 설정된 반복 횟수에 도달하거나 미리 설정된 정확도에 도달할 때까지 위 단계를 반복합니다.

그라디언트 부스팅 알고리즘은 직렬 알고리즘이므로 훈련 속도가 느릴 수 있습니다. 실제 예를 들어 소개하겠습니다.

특성 세트 Xi와 값 Yi가 있고 y를 계산하려고 한다고 가정합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

우리는 y

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

F_m(x)가 y|x에 더 가까워지기를 원하는 모든 단계에서 y의 평균부터 시작합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

각 단계에서 우리는 F_m(x)가 주어진 x에 대해 더 나은 근사치가 되기를 원합니다.

먼저 손실 함수를 정의합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

그런 다음 학습자에 대해 손실 함수가 가장 빠르게 감소하는 방향으로 이동합니다. Fm:

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

y를 계산할 수 없기 때문입니다. 모든 x에 대해 이 기울기의 정확한 값은 알 수 없지만 훈련 데이터의 각 x_i에 대해 기울기는 단계 m의 잔차와 정확히 같습니다: r_i!

그래서 우리는 약한 회귀 트리 h_m을 사용하여 다음을 수행할 수 있습니다. 잔여 수행 훈련에 대해 그래디언트 함수 g_m을 근사화합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

그런 다음 학습자를 업데이트합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

이것은 손실 함수의 실제 그래디언트 g_m을 사용하는 대신에 관련됩니다. 현재 학습자는 현재 학습자 F_{m }을 업데이트하는 대신 약한 회귀 트리 h_m을 사용하여 업데이트합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

즉, 다음 단계를 반복합니다.

1. 잔차를 계산합니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

2 회귀 트리 h_m을 훈련 표본과 잔차(x_i, r_i)에 맞춥니다. 단계 크기 알파 업데이트 모델

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화복잡해 보이죠? 프로세스를 시각화하면 매우 명확해집니다. 고전적인 비선형 범주형 데이터

import numpy as np
 import sklearn.datasets as ds
 import pandas as pd
 import matplotlib.pyplot as plt
 import matplotlib as mpl
 
 from sklearn import tree
 from itertools import product,islice
 import seaborn as snsmoonDS = ds.make_moons(200, noise = 0.15, random_state=16)
 moon = moonDS[0]
 color = -1*(moonDS[1]*2-1)
 
 df =pd.DataFrame(moon, columns = ['x','y'])
 df['z'] = color
 df['f0'] =df.y.mean()
 df['r0'] = df['z'] - df['f0']
 df.head(10)

데이터를 시각화해 보겠습니다.

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

下图可以看到,该数据集是可以明显的区分出分类的边界的,但是因为他是非线性的,所以使用线性算法进行分类时会遇到很大的困难。

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

那么我们先编写一个简单的梯度增强模型:

def makeiteration(i:int):
"""Takes the dataframe ith f_i and r_i and approximated r_i from the features, then computes f_i+1 and r_i+1"""
clf = tree.DecisionTreeRegressor(max_depth=1)
clf.fit(X=df[['x','y']].values, y = df[f'r{i-1}'])
df[f'r{i-1}hat'] = clf.predict(df[['x','y']].values)
 
eta = 0.9
df[f'f{i}'] = df[f'f{i-1}'] + eta*df[f'r{i-1}hat']
df[f'r{i}'] = df['z'] - df[f'f{i}']
rmse = (df[f'r{i}']**2).sum()
clfs.append(clf)
rmses.append(rmse)

上面代码执行3个简单步骤:

将决策树与残差进行拟合:

clf.fit(X=df[['x','y']].values, y = df[f'r{i-1}'])
 df[f'r{i-1}hat'] = clf.predict(df[['x','y']].values)

然后,我们将这个近似的梯度与之前的学习器相加:

df[f'f{i}'] = df[f'f{i-1}'] + eta*df[f'r{i-1}hat']

最后重新计算残差:

df[f'r{i}'] = df['z'] - df[f'f{i}']

步骤就是这样简单,下面我们来一步一步执行这个过程。

第1次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level 1.563690960407257

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第2次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 1 and level 0.5143677890300751

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第3次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level -0.6523728966712952

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第4次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level 0.3370491564273834

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第5次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level 0.3370491564273834

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第6次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 1 and level 0.022058885544538498

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第7次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level -0.3030575215816498

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第8次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

Tree Split for 0 and level 0.6119407713413239

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

第9次决策

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

可以看到通过9次的计算,基本上已经把上面的分类进行了区分

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

我们这里的学习器都是非常简单的决策树,只沿着一个特征分裂!但整体模型在每次决策后边的越来越复杂,并且整体误差逐渐减小。

plt.plot(rmses)

그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화

这也就是上图中我们看到的能够正确区分出了大部分的分类

如果你感兴趣可以使用下面代码自行实验:

​https://www.php.cn/link/bfc89c3ee67d881255f8b097c4ed2d67​


위 내용은 그래디언트 부스팅 알고리즘의 의사결정 과정을 단계별로 시각화의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제