Heim >Technologie-Peripheriegeräte >KI >Lassen Sie uns über erklärbare KI zur Betrugsbekämpfung sprechen

Lassen Sie uns über erklärbare KI zur Betrugsbekämpfung sprechen

WBOY
WBOYnach vorne
2023-04-11 20:46:121741Durchsuche

Lassen Sie uns über erklärbare KI zur Betrugsbekämpfung sprechen

In den letzten Jahren hat sich künstliche Intelligenz rasant weiterentwickelt und wird als leistungsstarkes innovatives Werkzeug in unzähligen Anwendungsfällen in verschiedenen Branchen eingesetzt. Große Verantwortung erfordert jedoch oft großes Können. Dank KI und maschinellem Lernen wird die Betrugsbekämpfungstechnologie präziser und entwickelt sich schneller als je zuvor. Echtzeit-Scoring-Technologie ermöglicht es Unternehmensleitern, Betrug sofort zu erkennen. Der Einsatz von KI-ML-gesteuerter Entscheidungsfindung wirft jedoch auch Bedenken hinsichtlich der Transparenz auf. Und wenn ML-Modelle in anspruchsvollen Umgebungen auftauchen, entsteht auch der Bedarf an Interpretierbarkeit.

Da die Zahl kritischer Entscheidungen, die von Maschinen getroffen werden, immer weiter zunimmt, werden Erklärbarkeit und Verständlichkeit immer wichtiger. Der Technologieforscher Tim Miller sagte: „Verständlichkeit ist der Grad, in dem Menschen die Gründe für Entscheidungen verstehen können.“ Daher ist die Entwicklung der Interpretierbarkeit von ML-Modellen von entscheidender Bedeutung, um die Entwicklung vertrauenswürdiger Automatisierungslösungen zu erleichtern.

Entwickler, Verbraucher und Führungskräfte sollten alle die Bedeutung und den Prozess der Entscheidungsfindung zur Betrugsprävention verstehen. Allerdings sind ML-Modelle mit etwas mehr Parametern für die meisten Menschen schwer zu verstehen. Die Forschungsgemeinschaft zu erklärbarer KI hat jedoch wiederholt erklärt, dass Black-Box-Modelle aufgrund der Entwicklung von Verständlichkeitstools keine Blackboxen mehr sind. Mithilfe dieser Tools können Benutzer die ML-Modelle, die für wichtige Entscheidungen verwendet werden, besser verstehen und ihnen mehr vertrauen.

SHAP of Things

SHAP (SHapley Additive exPlanations) ist heute eines der am häufigsten verwendeten modellagnostischen Erklärungswerkzeuge. Es berechnet Sharply-Werte aus kooperativen Spielen und verteilt den Einfluss der Funktionen gleichmäßig. Der TreeExplainer-Algorithmus von SHAP bietet die Möglichkeit, lokale Erklärungen in polynomialer Zeit zu erhalten, wenn wir Ensemble-Methoden verwenden, um Betrug auf der Grundlage tabellarischer Daten zu bekämpfen. Mit diesem Tool sind nur Näherungen möglich. Dies ist ein enormer Fortschritt im Vergleich zu Erklärungen, die auf neuronalen Netzen basieren.

White Box bezieht sich normalerweise auf die Regel-Engine, die den Betrugsgrad-Score berechnet. Im Wesentlichen liefern Black Boxes und White Boxes unterschiedliche Ergebnisse, da Black Boxes Ergebnisse basierend auf dem liefern, was die Maschine aus den Daten lernt, während White Boxes Ergebnisse basierend auf vordefinierten Regeln liefern. Basierend auf diesen Unterschieden können wir beide Wege entwickeln. Beispielsweise können Regeln angepasst werden, die auf Betrugsschleifen basieren, die von Black-Box-Modellen entdeckt werden.

Black-Box-Tests in Kombination mit SHAP können uns helfen, das globale Verhalten des Modells zu verstehen und die Hauptmerkmale des Modells aufzudecken, das zur Erkennung betrügerischer Aktivitäten verwendet wird. Gleichzeitig können auch unerwünschte Verzerrungen im Modell aufgedeckt werden. Beispielsweise könnte ein Modell bestimmte Bevölkerungsgruppen diskriminieren. Es kann solche Situationen durch globale Modellinterpretation erkennen und so ungenaue Vorhersagen verhindern.

Außerdem hilft es uns, die individuellen Vorhersagen des Modells zu verstehen. Während des Debugging-Prozesses von ML-Modellen können Datenwissenschaftler jede Vorhersage unabhängig beobachten und entsprechend interpretieren. Seine Funktionsbeiträge können uns helfen, zu verstehen, was das Modell tut, und wir können anhand dieser Eingaben weiterentwickeln. Durch die Nutzung von SHAP können Endbenutzer nicht nur die Grundfunktionen des Modells erhalten, sondern auch verstehen, wie sich jede Funktion (in welche Richtung) auf die Betrugswahrscheinlichkeit bei der Modellausgabe auswirkt.

Vertrauensfaktor

Schließlich kann mit Hilfe von SHAP das Vertrauen des Kunden gewonnen werden, indem Vertrauen in das Erfolgsmodell gewonnen wird. Generell gilt: Wenn wir verstehen, wie ein Produkt funktioniert, haben wir mehr Vertrauen in es. Den Leuten gefällt nicht, was sie nicht verstehen. Mit Hilfe von Interpretationstools können wir in die Blackbox blicken, sie besser verstehen und ihr vertrauen. Und wenn wir das Modell verstehen, können wir es kontinuierlich verbessern.

Explainable Booster (EBM) ist eine Alternative zur Verwendung des SHAP-Gradienten zur Steigerung von ML-Modellen. Dies ist das Flaggschiffprodukt von InterpretML (Microsofts Unternehmen für künstliche Intelligenz) und eine sogenannte Glasbox. Der Name Glass Box kommt daher, dass seine Natur aufgrund seiner Struktur interpretierbar ist. Laut der Originaldokumentation ist „EBM im Allgemeinen genauso genau wie moderne Black-Box-Modelle und behält gleichzeitig die vollständige Interpretierbarkeit bei.“ Obwohl EBM langsamer zu trainieren ist als andere moderne Algorithmen, ist es äußerst kompakt und schnell bei der Vorhersage. Lokal interpretierbare Modelle – modellagnostische Interpretation (LIME) sind ebenfalls ein gutes Werkzeug, das für die Black-Box-Interpretation verwendet werden kann. Es ist jedoch bei unstrukturierten Datenmodellen beliebter.

Durch die Nutzung der oben genannten Tools zusammen mit transparenten Datenpunkten können Unternehmen Entscheidungen mit Zuversicht treffen. Alle Beteiligten müssen wissen, wie ihre Tools optimale Ergebnisse liefern. Das Verständnis von Black-Box-ML und den verschiedenen damit verbundenen Technologien kann Unternehmen dabei helfen, besser zu verstehen, wie sie zu Ergebnissen gelangen, die zur Erreichung ihrer Geschäftsziele beitragen.

Kommentare

Für Menschen ist das Unbekannte oft beängstigend und man kann ihm nicht trauen. Das Algorithmusmodell der KI-ML-gesteuerten Entscheidungsfindung ist wie eine „Black Box“. Wir können nur die Struktur verstehen, aber wir können keinen Einblick in seine Funktionsprinzipien gewinnen, geschweige denn in die Zuverlässigkeit seiner Ergebnisse. Insbesondere in risikoreichen Umgebungen wie dem Bereich der Betrugsprävention ist der Einsatz von KI- und ML-Technologien schwieriger geworden. Durch die Einführung von Interpretierbarkeitstools wurde die „Black Box“ nach und nach transparenter, was die Zweifel und Bedenken der Nutzer weitgehend zerstreute und gleichzeitig Voraussetzungen für die Entwicklung der „Black Box“ selbst schuf.

Das obige ist der detaillierte Inhalt vonLassen Sie uns über erklärbare KI zur Betrugsbekämpfung sprechen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen