Maison >développement back-end >Tutoriel Python >Pourquoi mon F-Score génère-t-il un « UndefinedMetricWarning » en Python et comment puis-je y remédier ?

Pourquoi mon F-Score génère-t-il un « UndefinedMetricWarning » en Python et comment puis-je y remédier ?

Patricia Arquette
Patricia Arquetteoriginal
2024-11-16 14:37:03615parcourir

Why Does My F-Score Throw a

Avertissement F-Score : métriques non définies et échantillons prédits manquants

Dans le contexte des tâches de classification, la métrique F-score est couramment utilisée pour évaluer les performances du modèle. Cependant, lorsque l'erreur « UndefinedMetricWarning : F-score is mal défini » apparaît, cela indique que le F-score ne peut pas être calculé pour certaines étiquettes en raison de l'absence d'échantillons prédits.

Ce problème survient lorsqu'une étiquette présent dans le véritable jeu d’étiquettes (y_test) n’apparaît pas dans le jeu d’étiquettes prédit (y_pred). Par conséquent, le calcul du score F pour de telles étiquettes aboutit à une valeur indéfinie. Pour gérer cette situation, scikit-learn attribue une valeur de 0,0 au score F de ces étiquettes.

Une façon d'observer ce scénario consiste à utiliser un exemple. Considérons une situation dans laquelle l'étiquette « 2 » est présente dans y_test mais absente dans y_pred :

>>> set(y_test) - set(y_pred)
{2}

Comme il n'y a pas d'échantillon prévu pour l'étiquette « 2 », le score F pour cette étiquette est considéré comme 0,0. Comme le calcul inclut un score de 0, un avertissement est affiché par scikit-learn pour alerter sur la métrique non définie.

Cet avertissement n'est émis que la première fois qu'il se produit. Ce comportement est dû au paramètre par défaut des avertissements dans Python, qui garantit que des avertissements spécifiques ne sont affichés qu'une seule fois.

Pour supprimer cet avertissement, vous pouvez le désactiver à l'aide de warns.filterwarnings('ignore'):

import warnings
warnings.filterwarnings('ignore')

Vous pouvez également spécifier explicitement les étiquettes d'intérêt, en excluant celles sans échantillons prédits :

>>> metrics.f1_score(y_test, y_pred, average='weighted', labels=np.unique(y_pred))
0.91076923076923078

En spécifiant les étiquettes qui ont été réellement prédites, l'avertissement peut être évité.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn