Maison > Article > Périphériques technologiques > Gestion des modèles de Machine Learning : modélisation intégrée
Traducteur | Cui Hao
Réviseur | Sun Shujuan
L'apprentissage automatique est appliqué par les entreprises à différents scénarios commerciaux pour résoudre différents problèmes commerciaux. Avec l'application généralisée de l'apprentissage automatique, les organisations choisissent également Overwhelmed. lors de l’apprentissage des méthodes.
De nombreuses organisations utilisent des méthodes d'apprentissage avancées et classiques dans l'application du machine learning. Il existe la dichotomie familière entre l’apprentissage supervisé et non supervisé, ainsi que les variantes émergentes de l’apprentissage automatique telles que l’apprentissage contrastif, l’apprentissage par renforcement et l’apprentissage auto-supervisé.
De plus, l'analyse graphique, les réseaux de neurones profonds, la segmentation, l'analyse comportementale et d'autres techniques sont impliqués. Face à des problèmes commerciaux complexes et à grande échelle, tels que le renforcement des mesures de lutte contre le blanchiment d'argent pour lutter contre la criminalité financière, comment les organisations décident-elles quelles méthodes d'apprentissage automatique utiliser ?
Grâce à la modélisation intégrée, ce problème devient moins important. Cette approche d'apprentissage automatique permet aux organisations d'exploiter différents modèles et de les combiner avec une précision prédictive pour obtenir des résultats optimaux.
Cette approche permet de fournir un contexte complet pour les données de grande dimension dans les services financiers, la détection des fraudes et la cybersécurité. Les organisations qui utilisent la modélisation d'ensemble affirment que « la modélisation d'ensemble permet une plus grande diversité dans la construction de modèles », et Martin Rehak, PDG de Resistance AI, admet : « Nous ne voulons pas qu'un seul modèle se démarque
Utiliser la diversité dans les modèles. » permet aux organisations d'utiliser différents algorithmes pour évaluer divers aspects d'un problème commercial afin d'adopter des méthodes de prise de décision pleinement informées et cohérentes - qui sont explicables.
Les principes de la modélisation d'ensemble mentionnés précédemment sont incontestables. Les data scientists n'ont pas besoin de passer beaucoup de temps à concevoir des modèles parfaits pour les analyses de rentabilisation, mais doivent seulement combiner ces modèles imparfaits pour générer des prédictions. . capacité. "Lorsque vous envisagez l'apprentissage automatique dans une approche globale, vous prenez des décisions à partir de petits algorithmes", a noté Rehak. "Et, dans notre cas, ces algorithmes sont combinés de manière dynamique pour chaque transaction afin de prendre la meilleure décision." De plus, chacun de ces modèles pourrait peut-être se spécialiser dans un certain secteur, par exemple l'identification des incidents de blanchiment d'argent.
Par exemple, un modèle se concentre uniquement sur la taille de la transaction. Un autre modèle se concentre sur la localisation des transactions. Différents modèles peuvent examiner quels participants spécifiques ont été impliqués dans la transaction. L'objectif est une situation où "il n'y a pas de pics", explique Rehak. "La distribution du modèle est très plate et les preuves correspondant au modèle sont relativement faibles. En combinant de nombreux éléments de preuves faibles, vous pouvez prendre une décision plus solide. Un autre avantage est que grâce à l'apprentissage automatique classique et à des modèles plus simples, moins de formation. " des données (et des annotations) sont nécessaires pour mettre le modèle en production. De tels modèles sont plus faciles à interpréter que les réseaux de neurones profonds, qui nécessitent de grandes quantités de données d'entraînement.
Il est important de distinguer l'approche de modélisation à distribution plate décrite par Rehak des autres techniques de modélisation d'ensemble. Les exemples les plus courants de modélisation d'ensemble impliquent le bagging ou le boosting (ce dernier peut nécessiter Xtreme Gradient Boosting). Random Forest est un exemple de boosting basé sur une combinaison de différents arbres de décision. Avec cette approche, « vous construisez la collection une par une sur la base des versions précédentes de la collection », commente Rehak. Bien qu'il s'agisse d'un moyen rapide de créer des modèles avec une précision prédictive élevée, il présente un risque de surajustement (le modèle devient moins applicable aux données de production car l'ensemble de données d'entraînement est trop petit).
L'approche intégrée de Rehak est mieux adaptée aux cas d'utilisation AML car elle est basée sur le contexte qui affecte ces événements. "Si vous demandez à un expert en blanchiment d'argent si une transaction était malveillante, il examinera d'abord l'historique du compte et le comportement de la personne dans le passé", a expliqué Rehak. Grâce à son approche, les facteurs liés à la situation géographique, à l'heure de la journée, aux parties intéressées et aux institutions financières sont examinés à l'aide de modèles d'apprentissage automatique distincts. Ce n’est qu’en combinant les résultats de chacun de ces modèles que le système d’IA pourra déterminer si une transaction criminelle a eu lieu, avec beaucoup moins de faux positifs. "L'apprentissage automatique peut expliquer la plupart des valeurs aberrantes qui autrement submergeraient les équipes de lutte contre le blanchiment d'argent", a déclaré Rehak.
Lors de l'intégration de cas d'utilisation pour la modélisation, il est courant d'utiliser plus de 60 modèles pour modéliser différents aspects de la transaction analytique. Les résultats en temps réel de l'approche intégrée sont bien adaptés à ce scénario d'application. "L'un de ces 60 algorithmes peut tout diviser en segments, puis modéliser la taille moyenne des transactions par seconde", révèle Rehak. "Nous pouvons avoir des milliers de clips mis à jour dynamiquement en même temps."
Avec un grand nombre de modèles intégrés dans l'ensemble, chacun évaluant différents aspects d'une transaction pour découvrir un comportement criminel potentiel, une approche plus globale n'a pas pu être créée. « Nous vous regardons sous tellement d'angles qu'il devient très difficile de façonner votre comportement tout en vous permettant d'éviter tous ces actes criminels », a révélé Rehak. « Parce que, pour ne pas être identifié, un « criminel » doit éviter. plus d'une limite de décision, mais un grand nombre de limites de décision dynamiques. Chaque modèle de ces algorithmes est appris indépendamment, puis nous les combinons ensemble
Comment ces ensembles améliorent l'explicabilité et correspondent. Premièrement, ils ne s’appuient pas trop sur l’apprentissage automatique avancé et incluent uniquement des algorithmes plus simples et plus interprétables (impliquant l’apprentissage automatique traditionnel). Ces modèles sont devenus la pierre angulaire de l’évaluation de la criminalité transactionnelle. "Quand nous disons que quelque chose est important, nous pouvons vous dire pourquoi", a déclaré Rehak. "Nous pouvons vous indiquer quels indicateurs indiquent cela. Nous pouvons rédiger un rapport pour chaque constatation indiquant qu'il existe un risque élevé de criminalité transactionnelle en raison de ces facteurs. Bien que chaque algorithme se concentre sur les caractéristiques, tous les algorithmes n'ont pas le même poids." le modèle. De manière générale, les algorithmes impliquant l’analyse de graphiques (qui sont efficaces pour examiner les relations) reçoivent plus de poids que les autres modèles.
Les modèles peuvent non seulement expliquer les comportements suspects, mais également vous expliquer pourquoi des valeurs aberrantes se produisent. "En général, nous avons quatre ou cinq algorithmes dominants dans un ensemble, ce qui signifie que lorsque je pense qu'il s'agit d'une valeur aberrante, d'autres seront d'accord en raison de l'algorithme qui la sous-tend", a noté Rehak. « En outre, nous disposons de quatre ou cinq déclencheurs, ce qui garantit que les résultats sont quelque peu biaisés en faveur des anomalies. » Étant donné que les modèles individuels n'évaluent qu'un seul facteur dans une transaction, ils offrent une interprétabilité et une interprétabilité de mot de score. "Parce que nous connaissons l'ensemble, la micro-segmentation et le volume, nous pouvons facilement afficher ces informations avec des questions à côté de la partition, et le volume est très important pour le service financier d'une entreprise", a ajouté Rehak.
En fin de compte, la modélisation intégrée est utilisée plus que n'importe quelle application, bien qu'elle puisse être d'une grande aide pour les activités AML. Si elle est appliquée correctement, cette technologie peut améliorer l'interprétabilité tout en réduisant la quantité de données de formation et d'annotations nécessaires pour résoudre les problèmes critiques de l'entreprise.
La modélisation Ensemble exploite diverses techniques de science des données pour résoudre plusieurs problèmes commerciaux au lieu de limiter les problèmes à un ou deux. En conséquence, cette approche intégrée de résolution de problèmes pourrait devenir la vedette des déploiements d’IA.
Cui Hao, rédacteur de la communauté 51CTO, architecte senior, a 18 ans d'expérience en développement de logiciels et en architecture, et 10 ans d'expérience en architecture distribuée. Anciennement expert technique chez HP. Il est prêt à partager et a écrit de nombreux articles techniques populaires avec plus de 600 000 lectures. Auteur de "Principes et pratiques de l'architecture distribuée".
Titre original : Gestion des modèles d'apprentissage automatique : modélisation d'ensemble
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!