Maison  >  Article  >  développement back-end  >  Astuces de score F1 en Python

Astuces de score F1 en Python

王林
王林original
2023-06-10 09:40:362118parcourir

Python est un langage de programmation largement utilisé. C'est un langage de haut niveau et un langage facile à apprendre et à utiliser. Python fournit de nombreux outils et techniques pratiques aux data scientists et aux ingénieurs en apprentissage automatique, parmi lesquels le score F1 est une technique très utile.

F1-score est un indicateur qui pèse le rappel et la précision. Dans les tâches d'apprentissage automatique, nous devons souvent évaluer les performances des modèles de classification. Le score F1 est utilisé pour mesurer la qualité du classificateur.

De manière générale, pour l'évaluation des performances des modèles de classification, nous nous concentrerons sur trois indicateurs : la précision, le rappel et le score F1. Le taux d'exactitude fait référence à la proportion du nombre d'échantillons correctement classés par le classificateur par rapport au nombre total d'échantillons. Le taux de rappel fait référence à la proportion du nombre d'échantillons marqués comme classe positive que le classificateur peut détecter correctement par rapport au nombre total d'échantillons marqués comme classe positive. Le score F1 est la moyenne harmonique du rappel et de la précision.

En Python, nous pouvons utiliser le module de métriques de la bibliothèque sklearn pour calculer le score F1. Ce module fournit un certain nombre de fonctions liées à l'évaluation du modèle. Parmi elles, la fonction f1_score() est une fonction permettant de calculer le score F1, qui doit inclure deux tableaux : les étiquettes réelles et les étiquettes prédites.

Ce qui suit est un exemple de code pour calculer le score F1 à l'aide de la fonction f1_score() :

from sklearn.metrics import f1_score

y_true = [0, 1, 0, 1, 0, 1]
y_pred = [0, 1, 1, 1, 0, 0]

f1 = f1_score(y_true, y_pred)
print(f1)

Dans cet exemple, nous avons deux tableaux y_true et y_pred, qui représentent respectivement la vraie étiquette et l'étiquette prédite. Ensuite, nous utilisons la fonction f1_score() pour calculer le score F1 et enfin afficher le résultat.

En plus de la fonction f1_score(), sklearn.metrics fournit également de nombreuses autres fonctions. Par exemple, la fonction classification_report() peut générer un rapport sur les performances du classificateur. Cette fonction nécessite trois paramètres : l'étiquette réelle, l'étiquette prédite et la catégorie d'étiquette.

Ce qui suit est un exemple de code utilisant la fonction classification_report() :

from sklearn.metrics import classification_report

y_true = [0, 1, 0, 1, 0, 1]
y_pred = [0, 1, 1, 1, 0, 0]

report = classification_report(y_true, y_pred, labels=[0, 1])
print(report)

Dans cet exemple, nous utilisons la fonction classification_report() pour générer un rapport de performances du classificateur. Nous devons fournir trois paramètres : l’étiquette réelle, l’étiquette prédite et la catégorie d’étiquette. Enfin, affichez les résultats.

De plus, il existe d'autres techniques qui peuvent être utilisées pour améliorer les performances du score F1, telles que la sélection de fonctionnalités, l'ajustement des paramètres du modèle, etc. Grâce à ces techniques, nous pouvons améliorer la capacité de généralisation du modèle, améliorant ainsi les performances du score F1.

En résumé, le F1-score est une technique très utile grâce à laquelle nous pouvons mesurer les performances des classificateurs et les comparer. Avec l'aide de la bibliothèque sklearn en Python, nous pouvons calculer le score F1 rapidement et facilement et utiliser d'autres techniques pour optimiser davantage les performances du modèle.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn