Maison > Article > Périphériques technologiques > Parlons d’une IA anti-fraude explicable
Ces dernières années, l'intelligence artificielle s'est développée rapidement et est largement utilisée comme un puissant outil innovant dans d'innombrables cas d'utilisation dans diverses industries. Cependant, une grande responsabilité requiert souvent une grande capacité. Grâce à l’IA et au machine learning, la technologie antifraude devient plus précise et se développe plus rapidement que jamais. La technologie de notation en temps réel permet aux chefs d'entreprise d'identifier instantanément la fraude. Cependant, le recours à la prise de décision basée sur l’IA-ML soulève également des préoccupations en matière de transparence. Et lorsque des modèles de ML émergent dans des environnements à enjeux élevés, le besoin d’interprétabilité se fait également sentir.
À mesure que le nombre de décisions critiques prises par les machines continue d’augmenter, l’explicabilité et la compréhensibilité deviennent de plus en plus importantes. Le chercheur en technologie Tim Miller a déclaré : La compréhensibilité est le degré auquel les humains peuvent comprendre les raisons des décisions. Par conséquent, développer l’interprétabilité des modèles ML est crucial pour faciliter le développement de solutions d’automatisation fiables.
Les développeurs, les consommateurs et les dirigeants doivent tous comprendre le sens et le processus de prise de décision en matière de prévention de la fraude. Cependant, les modèles ML avec un peu plus de paramètres sont difficiles à comprendre pour la plupart des gens. Cependant, la communauté des chercheurs en IA explicable a déclaré à plusieurs reprises qu’en raison du développement d’outils de compréhension, les modèles de boîtes noires ne sont plus des boîtes noires. Avec l'aide de ces outils, les utilisateurs peuvent comprendre et faire davantage confiance aux modèles ML utilisés pour prendre des décisions importantes.
SHAP (SHapley Additive exPlanations) est l'un des outils d'explication indépendants du modèle les plus couramment utilisés aujourd'hui. Il calcule les valeurs Sharply des jeux coopératifs, partageant uniformément l'influence des fonctionnalités. L'algorithme TreeExplainer de SHAP offre la possibilité d'obtenir des explications locales en temps polynomial lorsque nous utilisons des méthodes d'ensemble pour lutter contre la fraude basée sur des données tabulaires. Avec cet outil, seules des approximations sont possibles. Il s’agit d’une avancée considérable par rapport aux explications basées sur les réseaux neuronaux.
La boîte blanche fait généralement référence au moteur de règles qui calcule le score du degré de fraude. Essentiellement, les boîtes noires et les boîtes blanches produisent des résultats différents, car les boîtes noires produisent des résultats basés sur ce que la machine apprend des données, tandis que les boîtes blanches produisent des scores basés sur des règles prédéfinies. Nous pouvons développer les deux voies en fonction de ces différences. Par exemple, ajuster les règles en fonction des boucles de fraude découvertes par les modèles de boîte noire.
Les tests boîte noire combinés à SHAP peuvent nous aider à comprendre le comportement global du modèle et révéler les principales caractéristiques du modèle utilisé pour détecter les activités frauduleuses. Dans le même temps, des biais indésirables dans le modèle peuvent également être révélés. Par exemple, un modèle peut être discriminatoire à l’égard de certaines données démographiques. Il peut détecter de telles situations grâce à l’interprétation d’un modèle global, évitant ainsi des prédictions inexactes.
Cela nous aide également à comprendre les prédictions individuelles faites par le modèle. Pendant le processus de débogage des modèles ML, les data scientists peuvent observer chaque prédiction indépendamment et l'interpréter en conséquence. Ses contributions aux fonctionnalités peuvent nous aider à percevoir ce que fait le modèle, et nous pouvons développer davantage à partir de ces entrées. En tirant parti de SHAP, les utilisateurs finaux peuvent non seulement obtenir les fonctionnalités de base du modèle, mais également comprendre comment chaque fonctionnalité (dans quelle direction) affecte la probabilité de fraude en sortie du modèle.
Enfin, avec l'aide de SHAP, la confiance peut être gagnée auprès du client en gagnant la confiance dans le modèle à succès. De manière générale, si nous comprenons le fonctionnement d’un produit, nous lui faisons davantage confiance. Les gens n'aiment pas ce qu'ils ne comprennent pas. À l’aide d’outils d’interprétation, nous pouvons regarder à l’intérieur de la boîte noire, la comprendre et mieux lui faire confiance. Et en comprenant le modèle, nous pouvons l’améliorer continuellement.
Explainable Booster (EBM) est une alternative à l'utilisation du dégradé SHAP pour booster les modèles ML. Il s'agit du produit phare d'InterpretML (la société d'intelligence artificielle de Microsoft) et c'est ce qu'on appelle une boîte en verre. Le nom Glass Box vient du fait que sa nature est interprétable en raison de sa structure. Selon la documentation originale, « l'EBM est généralement aussi précis que les modèles de boîte noire de pointe tout en conservant une interprétabilité totale. Bien que l'EBM soit plus lent à former que les autres algorithmes modernes, il est extrêmement compact et rapide en termes de prédiction. Les modèles interprétables localement – l’interprétation indépendante du modèle (LIME) sont également un bon outil qui peut être utilisé pour l’interprétation en boîte noire. Cependant, il est plus populaire pour les modèles de données non structurés.
En tirant parti des outils ci-dessus ainsi que de points de données transparents, les organisations peuvent prendre des décisions en toute confiance. Toutes les parties prenantes doivent savoir comment leurs outils produisent des résultats optimaux. Comprendre le ML en boîte noire et les différentes technologies qui y sont associées peut aider les organisations à mieux comprendre comment elles obtiennent des résultats pour atteindre leurs objectifs commerciaux.
Pour les humains, l'inconnu est souvent effrayant et on ne peut pas leur faire confiance. Le modèle algorithmique de prise de décision pilotée par AI-ML est comme une « boîte noire ». Nous ne pouvons comprendre que la structure, mais nous ne pouvons pas comprendre ses principes de fonctionnement, et encore moins juger de la fiabilité des résultats qu'il donne. L’application des technologies d’IA et de ML est devenue plus difficile en particulier dans les environnements à haut risque tels que le domaine de la prévention de la fraude. L'introduction d'outils d'interprétabilité a progressivement rendu la « boîte noire » transparente, ce qui a largement dissipé les doutes et les inquiétudes des utilisateurs, tout en créant les conditions du développement de la « boîte noire » elle-même.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!