Maison  >  Article  >  Périphériques technologiques  >  Principes de base de l'algorithme d'arbre d'amplification de gradient

Principes de base de l'algorithme d'arbre d'amplification de gradient

WBOY
WBOYavant
2024-01-24 08:30:14833parcourir

Principes de base de lalgorithme darbre damplification de gradient

Gradient Boosting Tree est un algorithme d'apprentissage d'ensemble qui entraîne de manière itérative un modèle d'arbre de décision, puis pondère et fusionne plusieurs modèles d'arbre de décision pour créer un modèle de classification ou de régression plus puissant. Cet algorithme est basé sur un modèle additif, et chaque nouveau modèle d'arbre de décision est conçu pour minimiser le résidu du modèle précédent. Le résultat de prédiction du modèle final est la moyenne pondérée de tous les modèles d’arbre de décision. Les arbres d'amélioration de gradient sont largement utilisés en raison de leur grande précision et robustesse

Plus précisément, le principe des arbres d'amélioration de gradient est le suivant :

Tout d'abord, l'ensemble de données d'entraînement est divisé en un ensemble d'entraînement et un ensemble de validation. Utilisez l’ensemble de formation pour former un modèle d’arbre de décision de base comme modèle initial.

Tout d'abord, calculez le résidu sur l'ensemble d'entraînement, c'est-à-dire la différence entre la valeur réelle et la valeur prédite. Ensuite, utilisez les résidus comme nouvelle variable cible pour y entraîner un nouveau modèle d'arbre de décision. Enfin, le nouveau modèle est pondéré de manière fusionnée avec le modèle initial.

Tout d'abord, nous effectuons une fusion pondérée des résultats de prédiction du modèle initial et du nouveau modèle pour obtenir un nouveau résultat de prédiction. Ensuite, nous calculons le résidu entre la nouvelle prédiction et la vraie valeur, et utilisons le résidu comme nouvelle variable cible. Nous formons ensuite un nouveau modèle d'arbre de décision en utilisant cette nouvelle variable cible et effectuons une fusion pondérée avec le modèle précédent. De cette manière, nous pouvons améliorer continuellement et itérativement notre modèle de prédiction pour obtenir des résultats de prédiction plus précis.

4. Répétez les étapes ci-dessus jusqu'à ce que le nombre prédéterminé d'itérations soit atteint ou que les performances du modèle sur l'ensemble de validation commencent à décliner.

5. Enfin, les résultats de prédiction de plusieurs modèles d'arbre de décision sont pondérés et fusionnés pour obtenir le résultat de prédiction final.

Dans les arbres d'amélioration de gradient, chaque nouveau modèle d'arbre de décision est formé sur la base du modèle précédent, de sorte que chaque nouveau modèle corrige l'erreur du modèle précédent. De cette manière, grâce à plusieurs itérations, l'arbre d'amélioration du gradient peut améliorer continuellement les performances du modèle, obtenant ainsi de meilleurs résultats de classification ou de régression.

Dans une implémentation spécifique, les arbres d'amélioration de gradient utilisent généralement la méthode de descente de gradient pour optimiser les paramètres du modèle. Plus précisément, les paramètres du modèle peuvent être mis à jour en calculant le gradient négatif de la fonction de perte, minimisant ainsi la fonction de perte. Dans les problèmes de classification, la fonction de perte d'entropie croisée est généralement utilisée ; dans les problèmes de régression, la fonction de perte carrée est généralement utilisée.

Il convient de noter que l'avantage de l'arbre d'amplification de gradient est qu'il ne nécessite pas de prétraitement excessif des données et peut gérer directement les valeurs manquantes et les caractéristiques discrètes. Cependant, étant donné que chaque itération nécessite la formation d'un nouveau modèle d'arbre de décision, la vitesse de formation des arbres boostés par gradient est lente. De plus, si le nombre d'itérations est trop grand ou si l'arbre de décision est trop profond, le modèle sera surajusté, ce qui nécessitera un certain traitement de régularisation.

Les arbres à gradient amélioré s'arrêtent-ils tôt ou pas ?

Dans les arbres augmentant le gradient, un arrêt précoce peut nous aider à éviter le surajustement et à améliorer la capacité de généralisation du modèle. En général, nous pouvons déterminer le nombre optimal de tours pour un arrêt anticipé grâce à des méthodes telles que la validation croisée.

Plus précisément, si nous constatons que les performances du modèle sur l'ensemble de test commencent à décliner lors de l'ajustement des données d'entraînement, nous pouvons alors arrêter l'entraînement pour éviter le surajustement. De plus, si nous utilisons un arbre plus profond ou un taux d'apprentissage plus élevé, cela peut également entraîner un surajustement du modèle. Dans ce cas, un arrêt précoce apportera également certains avantages.

En bref, l'arrêt précoce est une méthode de régularisation courante dans les arbres à gradient boosting, qui peut nous aider à éviter le surajustement et à améliorer la capacité de généralisation du modèle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer