Maison > Article > Périphériques technologiques > Les dix meilleurs algorithmes que vous devez connaître et connaître sur le machine learning !
La régression linéaire est probablement l'algorithme d'apprentissage automatique le plus populaire. La régression linéaire consiste à trouver une ligne droite et à faire en sorte que cette ligne droite s'adapte le plus étroitement possible aux points de données du nuage de points. Il tente de représenter les variables indépendantes (valeurs x) et les résultats numériques (valeurs y) en ajustant une équation en ligne droite à ces données. Cette ligne peut ensuite être utilisée pour prédire les valeurs futures !
La technique la plus couramment utilisée pour cet algorithme est la méthode des moindres carrés. Cette méthode calcule une ligne de meilleur ajustement qui minimise la distance perpendiculaire à partir de chaque point de données sur la ligne. La distance totale est la somme des carrés des distances verticales (ligne verte) de tous les points de données. L'idée est d'ajuster le modèle en minimisant cette erreur quadratique ou cette distance.
Par exemple, une régression linéaire simple, qui a une variable indépendante (axe des x) et une variable dépendante (axe des y).
La régression logistique est similaire à la régression linéaire, mais elle est utilisée lorsque la sortie est binaire (c'est-à-dire lorsque le résultat ne peut avoir que deux valeurs possibles). La prédiction du résultat final est une fonction sigmoïde non linéaire appelée fonction logistique, g().
Cette fonction logistique mappe la valeur du résultat intermédiaire à la variable de résultat Y, dont la valeur est comprise entre 0 et 1. Ces valeurs peuvent alors être interprétées comme la probabilité que Y se produise. Les propriétés de la fonction logistique sigmoïde rendent la régression logistique plus adaptée aux tâches de classification.
Graphique de régression logistique montrant la probabilité de réussite à l'examen en fonction du temps d'étude.
Les arbres de décision peuvent être utilisés pour des tâches de régression et de classification.
Dans cet algorithme, le modèle d'entraînement apprend à prédire la valeur de la variable cible en apprenant la règle de décision de la représentation arborescente. Un arbre est composé de nœuds avec des attributs correspondants.
À chaque nœud, nous posons des questions sur les données en fonction des fonctionnalités disponibles. Les branches gauche et droite représentent des réponses possibles. Le nœud final (c'est-à-dire le nœud feuille) correspond à une valeur prédite.
L'importance de chaque fonctionnalité est déterminée selon une approche descendante. Plus le nœud est haut, plus ses propriétés sont importantes.
Exemple d'arbre de décision pour décider d'attendre ou non dans un restaurant.
Naive Bayes (Naive Bayes) est basé sur le théorème de Bayes. Il mesure la probabilité de chaque classe, la probabilité conditionnelle de chaque classe étant donné la valeur de x. Cet algorithme est utilisé dans les problèmes de classification et donne un résultat binaire oui/non. Jetez un œil à l’équation ci-dessous.
Le classificateur Naive Bayes est une technique statistique populaire qui peut être utilisée pour filtrer le spam !
Support Vector Machine (SVM) est un algorithme supervisé pour les problèmes de classification. Une machine à vecteurs de support tente de tracer deux lignes entre les points de données avec la plus grande marge entre eux. Pour ce faire, nous traçons les éléments de données sous forme de points dans un espace à n dimensions, où n est le nombre d'entités en entrée. Sur cette base, la machine à vecteurs de support trouve une limite optimale, appelée hyperplan, qui sépare au mieux les sorties possibles par étiquettes de classe.
La distance entre l'hyperplan et le point de classe le plus proche est appelée la marge. L'hyperplan optimal possède la plus grande marge qui classe les points de telle sorte que la distance entre le point de données le plus proche et les deux classes soit maximisée.
Par exemple, H1 ne sépare pas ces deux classes. Mais H2 le fait, mais seulement avec des marges infimes. Et H3 les sépare avec la plus grande marge.
K-Algorithme des voisins les plus proches (KNN) est très simple. KNN classe les objets en recherchant dans l'ensemble de l'apprentissage les K instances les plus similaires, ou K voisins, et en attribuant une variable de sortie commune à toutes ces K instances. Le choix de
K est critique : des valeurs plus petites peuvent donner beaucoup de bruit et des résultats inexacts, tandis que des valeurs plus grandes sont irréalisables. Il est le plus souvent utilisé pour la classification, mais convient également aux problèmes de régression.
La distance utilisée pour évaluer la similarité entre les instances peut être la distance euclidienne, la distance de Manhattan ou la distance de Minkowski. La distance euclidienne est la distance ordinaire en ligne droite entre deux points. Il s'agit en fait de la racine carrée de la somme des carrés des différences entre les coordonnées des points.
▲Exemple de classification KNN
K-means (K-means) est regroupé en classifiant l'ensemble de données. Par exemple, cet algorithme peut être utilisé pour regrouper les utilisateurs en fonction de l'historique des achats. Il trouve K clusters dans l'ensemble de données. K-means est utilisé pour l'apprentissage non supervisé, nous n'avons donc besoin d'utiliser que les données d'entraînement X et le nombre de clusters que nous voulons identifier K.
L'algorithme attribue de manière itérative chaque point de données à l'un des K groupes en fonction de ses caractéristiques. Il sélectionne K points pour chaque K-cluster (appelés centroïdes). En fonction de la similarité, de nouveaux points de données sont ajoutés au cluster ayant le centroïde le plus proche. Ce processus se poursuit jusqu'à ce que le centre de masse cesse de changer.
Random Forest (Random Forest) est un algorithme d'apprentissage automatique d'ensemble très populaire. L’idée de base de cet algorithme est que les opinions de nombreuses personnes sont plus précises que celles d’un seul individu. Dans une forêt aléatoire, nous utilisons un ensemble d'arbres de décision (voir Arbres de décision).
Pour classer les nouveaux objets, nous prenons un vote dans chaque arbre de décision et combinons les résultats avant de prendre la décision finale basée sur un vote majoritaire.
Pendant le processus de formation, chaque arbre de décision est construit sur la base des échantillons bootstrap de l'ensemble de formation.
Pendant le processus de classification, les décisions sur les instances d'entrée sont prises sur la base d'un vote majoritaire.
Les problèmes d'apprentissage automatique sont devenus plus complexes en raison du grand volume de données que nous sommes capables de capturer aujourd'hui. Cela signifie que la formation est extrêmement lente et qu’il est difficile de trouver une bonne solution. Ce problème est souvent appelé la « malédiction de la dimensionnalité ».
La réduction de dimensionnalité tente de résoudre ce problème en combinant des fonctionnalités spécifiques dans des fonctionnalités de niveau supérieur sans perdre les informations les plus importantes. L'analyse en composantes principales (ACP) est la technique de réduction de dimensionnalité la plus populaire.
L'analyse en composantes principales réduit la dimensionnalité d'un ensemble de données en le compressant en lignes de faible dimension ou en hyperplans/sous-espaces. Cela préserve autant que possible les caractéristiques principales des données originales.
Un exemple de réduction de dimensionnalité peut être obtenu en rapprochant tous les points de données d'une ligne droite.
Les réseaux de neurones artificiels (ANN) peuvent gérer des tâches d'apprentissage automatique importantes et complexes. Un réseau neuronal est essentiellement un ensemble de couches interconnectées composées de bords et de nœuds pondérés, appelés neurones. Entre la couche d'entrée et la couche de sortie, nous pouvons insérer plusieurs couches cachées. Les réseaux de neurones artificiels utilisent deux couches cachées. Au-delà de cela, il faut s’attaquer au deep learning.
Le principe de fonctionnement du réseau neuronal artificiel est similaire à la structure du cerveau. Un groupe de neurones reçoit un poids aléatoire pour déterminer comment le neurone traite les données d'entrée. La relation entre l'entrée et la sortie est apprise en entraînant un réseau neuronal sur les données d'entrée. Pendant la phase de formation, le système a accès aux bonnes réponses.
Si le réseau ne peut pas reconnaître avec précision l'entrée, le système ajustera les poids. Après un entraînement suffisant, il reconnaîtra systématiquement les modèles corrects.
Chaque nœud circulaire représente un neurone artificiel, et les flèches représentent les connexions de la sortie d'un neurone artificiel à l'entrée d'un autre neurone artificiel.
Quelle est la prochaine étape ? Vous avez désormais appris les bases des algorithmes d’apprentissage automatique les plus populaires. Vous êtes prêt à apprendre des concepts plus complexes et même à les mettre en œuvre grâce à une pratique pratique approfondie. Si vous souhaitez apprendre à mettre en œuvre ces algorithmes, le cours Grokking Data Science d'Educative applique ces théories passionnantes à des applications claires et réelles.
Je vous souhaite de bonnes études !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!