Maison > Article > Périphériques technologiques > Quels KPI peuvent être utilisés pour mesurer le succès des projets d’intelligence artificielle ?
Un rapport de recherche publié par le cabinet de recherche IDC en juin 2020 a montré qu'environ 28 % des plans d'intelligence artificielle ont échoué. Les raisons citées dans le rapport étaient le manque d'expertise, le manque de données pertinentes et l'absence d'un environnement de développement suffisamment intégré. Afin d’établir une démarche d’amélioration continue du machine learning et éviter de rester bloqué, l’identification d’indicateurs clés de performance (KPI) est désormais une priorité.
Dans les hautes sphères de l'industrie, les data scientists peuvent définir les indicateurs de performance technique du modèle. Ils varieront en fonction du type d’algorithme utilisé. Dans le cas d'une régression visant à prédire la taille d'une personne en fonction de son âge par exemple, on peut recourir à des coefficients de détermination linéaires.
Une équation qui mesure la qualité des prédictions peut être utilisée : Si le carré du coefficient de corrélation est nul, la droite de régression détermine la distribution des points 0%. En revanche, si le coefficient est de 100 %, le nombre est égal à 1. Cela indique donc que la qualité des prévisions est très bonne.
Une autre mesure pour évaluer la régression est la méthode des moindres carrés, qui fait référence à la fonction de perte. Cela implique de quantifier l’erreur en calculant la somme des carrés des écarts entre la valeur réelle et la ligne prédite, puis d’ajuster le modèle en minimisant l’erreur quadratique. Dans la même logique, on peut utiliser la méthode de l'erreur absolue moyenne, qui consiste à calculer la moyenne des valeurs fondamentales des écarts.
Charlotte Pierron-Perlès, responsable des services stratégie, données et intelligence artificielle du cabinet de conseil français Capgemini, conclut : "En tout cas, cela revient à mesurer l'écart avec ce que l'on essaie de prédire
Par exemple, en classification." pour la détection du spam Dans l'algorithme, il est nécessaire de rechercher les faux positifs et les faux négatifs du spam. Pierron Perlès explique : « Nous avons par exemple développé pour un groupe de cosmétiques une solution de machine learning qui optimise l'efficacité d'une ligne de production. L'objectif était d'identifier les cosmétiques défectueux en début de chaîne pouvant provoquer des interruptions de production. avec les opérateurs de l'usine sur La discussion a suivi avec eux à la recherche d'un modèle pour compléter la détection même si cela impliquait de détecter les faux positifs, c'est-à-dire que les cosmétiques qualifiés pourraient être confondus avec des défauts »
Basé sur les concepts de faux positifs et de faux négatifs, autres. Trois métriques permettent l'évaluation des modèles de classification :
(1) Le rappel (R) fait référence à une mesure de sensibilité du modèle. C'est le rapport entre les vrais positifs correctement identifiés (en prenant comme exemple les tests de coronavirus positifs) et l'ensemble des vrais positifs qui auraient dû être détectés (tests de coronavirus positifs + tests de coronavirus négatifs qui étaient effectivement positifs) : R = vrais positifs / vrais positifs +Faux négatif.
(2) La précision (P) fait référence à la mesure de l'exactitude. Il s’agit du rapport entre les vrais positifs corrects (tests COVID-19 positifs) et tous les résultats déterminés comme positifs (tests COVID-19 positifs + tests COVID-19 négatifs) : P = vrais positifs / vrais positifs + faux positifs.
(3) La moyenne harmonique (F-score) mesure la capacité du modèle à donner des prédictions correctes et à rejeter d'autres prédictions : F=2×precision×recall/precision+recall
Chef d'ESNKeyrus, France Senior Le data scientist David TsangHinSun a souligné : « Une fois qu'un modèle est construit, sa capacité de généralisation deviendra une métrique clé.
Alors, comment l'estimer ? En mesurant l’écart entre les prévisions et les résultats attendus, puis en comprenant comment cet écart évolue dans le temps. Il explique : "Après un certain temps, nous pouvons rencontrer des divergences. Cela peut être dû à un sous-apprentissage (ou à un surajustement) dû à un sous-entraînement de l'ensemble de données en termes de qualité et de quantité.
Alors sa solution, quelle est-elle." il? Par exemple, dans le cas des modèles de reconnaissance d’images, les réseaux génératifs antagonistes peuvent être utilisés pour augmenter le nombre d’images apprises par rotation ou distorsion. Autre technique (applicable aux algorithmes de classification) : le suréchantillonnage minoritaire synthétique, qui consiste à augmenter le nombre d'exemples peu fréquents dans l'ensemble de données grâce au suréchantillonnage.
Des désaccords peuvent également survenir en cas de surapprentissage. Dans cette configuration, le modèle ne se limitera pas aux corrélations attendues après la formation, mais en raison d'une surspécialisation, il capturera le bruit généré par les données de terrain et produira des résultats incohérents. DavidTsangHinSun a souligné : « Il est alors nécessaire de vérifier la qualité de l'ensemble des données de formation et éventuellement d'ajuster les poids des variables. »
Tandis que les indicateurs clés de performance (KPI) économiques demeurent. Stéphane Roder, PDG du cabinet de conseil français AIBuilders, estime : « Il faut se demander si le taux d'erreur est cohérent avec les enjeux métiers. Par exemple, la compagnie d'assurance Lemonade a développé un module de machine learning capable de répondre en 3 heures aux demandes des clients. minutes après le dépôt d'une réclamation. Les informations (y compris les photos) versent l'argent de l'assurance au client. Compte tenu des économies, un certain taux d'erreur entraîne des coûts tout au long de la durée de vie du modèle, notamment par rapport au coût total de possession (TCO). du développement à la maintenance, il est très important de vérifier cette mesure.
Même au sein d'une même entreprise, les indicateurs de performance clés (KPI) attendus peuvent varier. Charlotte Pierron Perlès de Capgemini précise : « Nous avons développé un moteur de prévision de consommation pour un distributeur français d'envergure internationale. Il s'est avéré que les cibles précises du modèle différaient entre les produits vendus en grands magasins et les nouveaux produits. Les ventes de ces derniers dépendent de facteurs. , notamment celles liées à la réaction du marché, qui sont, par définition, moins contrôlables. »
Le dernier indicateur clé de performance est le niveau d’adoption. Charlotte Pierron-Perlès a déclaré : « Même si un modèle est de bonne qualité, il ne suffit pas à lui seul. Cela nécessite le développement de produits d'intelligence artificielle avec une expérience orientée utilisateur qui puisse être utilisée pour les entreprises et concrétiser les promesses de la machine. apprentissage."
Stéphane Roder Le résumé indique : « Cette expérience utilisateur permettra également aux utilisateurs de fournir des commentaires, ce qui contribuera à fournir des connaissances sur l'IA en dehors du flux de données de production quotidien. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!