Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  6 empfohlene Python-Frameworks für den Aufbau erklärbarer künstlicher Intelligenzsysteme (XAI)

6 empfohlene Python-Frameworks für den Aufbau erklärbarer künstlicher Intelligenzsysteme (XAI)

WBOY
WBOYnach vorne
2023-04-26 10:49:081849Durchsuche

KI ist wie eine Black Box, die selbstständig Entscheidungen treffen kann, aber die Leute wissen nicht warum. Erstellen Sie ein KI-Modell, geben Sie Daten ein und geben Sie dann die Ergebnisse aus. Ein Problem besteht jedoch darin, dass wir nicht erklären können, warum die KI zu einer solchen Schlussfolgerung gelangt. Es ist notwendig, die Gründe dafür zu verstehen, wie eine KI zu einer bestimmten Schlussfolgerung gelangt, anstatt einfach ein Ergebnis zu akzeptieren, das ohne Kontext oder Erklärung ausgegeben wird.

Interpretierbarkeit soll den Menschen helfen, Folgendes zu verstehen:

  • Wie lernt man?
  • Was lernt man?
  • # 🎜 🎜#Warum wird eine solche Entscheidung für eine bestimmte Eingabe getroffen?
  • Ist die Entscheidung zuverlässig?
In diesem Artikel werde ich 6 Methoden zur zuverlässigen Interpretation vorstellen Python-Framework.

SHAP

SHapley Additive Erklärung (SHapley Additive Erklärung) ist eine spieltheoretische Methode zur Erklärung der Ausgabe jedes Modells für maschinelles Lernen. Es nutzt den klassischen Shapley-Wert aus der Spieltheorie und die damit verbundenen Erweiterungen, um die optimale Kreditzuweisung mit lokalen Interpretationen in Beziehung zu setzen (Einzelheiten und Zitate finden Sie im Artikel).

Der Beitrag jedes Features im Datensatz zur Modellvorhersage wird durch den Shapley-Wert erklärt. Der SHAP-Algorithmus von Lundberg und Lee wurde ursprünglich im Jahr 2017 veröffentlicht und wurde von der Community in vielen verschiedenen Bereichen weithin übernommen.

六个优秀的可解释AI (XAI)的Python框架推荐

Verwenden Sie pip oder conda, um die Shap-Bibliothek zu installieren.

# install with pippip install shap# install with condaconda install -c conda-forge shap

六个优秀的可解释AI (XAI)的Python框架推荐

Verwenden Sie die Shap-Bibliothek, um ein Wasserfalldiagramm zu erstellen

六个优秀的可解释AI (XAI)的Python框架推荐

Verwenden Sie Shap Bibliothek Beeswarm-Diagramm erstellen

六个优秀的可解释AI (XAI)的Python框架推荐

Shap-Bibliothek verwenden, um Teilabhängigkeitsdiagramm zu erstellen

LIME

In interpretierbar Im Bereich Sex ist LIME eine der ersten bekannten Methoden. Es kann helfen zu erklären, was maschinelle Lernmodelle lernen und warum sie eine bestimmte Art und Weise vorhersagen. Lime unterstützt derzeit die Interpretation von Tabellendaten, Textklassifikatoren und Bildklassifikatoren.

Für die Optimierung des Algorithmus ist es entscheidend zu wissen, warum das Modell die Art und Weise vorhersagt, wie es es tut. Mit der Erklärung von LIME können Sie verstehen, warum sich das Modell so verhält. Wenn das Modell nicht wie geplant läuft, liegt wahrscheinlich ein Fehler in der Datenvorbereitungsphase vor.

六个优秀的可解释AI (XAI)的Python框架推荐

Pip-Installation verwenden

pip install lime

六个优秀的可解释AI (XAI)的Python框架推荐

Teilweises Erklärungsdiagramm der LIME-Konstruktion

六个优秀的可解释AI (XAI)的Python框架推荐

Beeswarm-Diagramm erstellt von LIME

Shapash

„Shapash ist ein Werkzeug, das Maschinen aktiviert Eine Python-Bibliothek, die jeder interpretieren und verstehen kann. Shapash bietet verschiedene Arten von Visualisierungen, die klare Beschriftungen anzeigen, die jeder verstehen kann, sodass Datenwissenschaftler ihre Modelle leichter verstehen und Ergebnisse mit ihnen teilen können, um zu verstehen, wie das Modell funktioniert trifft seine Urteile.“

Interaktivität und schöne Grafiken sind unerlässlich, um Geschichten, Erkenntnisse und Modellergebnisse aus Ihren Daten zu vermitteln. Der beste Weg für Geschäfts- und Datenwissenschaftler/Analysten, KI/ML-Ergebnisse zu präsentieren und mit ihnen zu interagieren, besteht darin, sie zu visualisieren und ins Internet zu stellen. Die Shapash-Bibliothek kann interaktive Dashboards generieren und verfügt über eine Sammlung vieler Visualisierungsdiagramme. Bezogen auf die Interpretierbarkeit von Form/Kalk. Es kann SHAP/Lime als Backend verwenden, was bedeutet, dass es nur besser aussehende Diagramme liefert. #? Bibliothek Ein interaktives Dashboard für

六个优秀的可解释AI (XAI)的Python框架推荐

Partial Interpretation Graph erstellt mit Shapash

InterpretML

六个优秀的可解释AI (XAI)的Python框架推荐InterpretML ist ein Open-Source-Python-Paket, das Forschern Algorithmen zur Interpretierbarkeit maschinellen Lernens bereitstellt. InterpretML unterstützt das Training interpretierbarer Modelle (Glassbox) sowie die Interpretation vorhandener ML-Pipelines (Blackbox).

InterpretML demonstriert zwei Arten der Interpretierbarkeit: Glassbox-Modelle – Modelle für maschinelles Lernen, die auf Interpretierbarkeit ausgelegt sind (z. B. lineare Modelle, Regellisten, verallgemeinerte additive Modelle) und Black-Box-Interpretierbarkeitstechniken – für die Interpretierbarkeit bestehender Systeme (z. B. partielle Abhängigkeiten, LIME). Mithilfe einer einheitlichen API und der Kapselung mehrerer Methoden sowie einer integrierten, erweiterbaren Visualisierungsplattform ermöglicht dieses Paket Forschern den einfachen Vergleich von Interpretierbarkeitsalgorithmen. InterpretML enthält auch die erste Implementierung der Erklärung Boosting Machine, ein leistungsstarkes, interpretierbares Glassbox-Modell, das genauso genau sein kann wie viele Black-Box-Modelle.

六个优秀的可解释AI (XAI)的Python框架推荐

Lokale interaktive Erklärungsdarstellung, erstellt mit InterpretML

六个优秀的可解释AI (XAI)的Python框架推荐

Globale Erklärungsdarstellung, erstellt mit InterpretML

ELI5

ELI5 ist eine Python-Bibliothek, die dabei helfen kann, Klassifikatoren für maschinelles Lernen zu debuggen und ihre Vorhersagen zu interpretieren. Die folgenden Frameworks für maschinelles Lernen werden derzeit unterstützt:

  • scikit-learn
  • Funktioniert weltweit;
  • Untersuchen Sie die individuellen Vorhersagen eines Modells und veranschaulichen Sie, wie das Modell eine solche Entscheidung treffen würde.

  • Verwenden Sie die ELI5-Bibliothek, um globale Gewichtungen zu generieren.

Verwenden Sie die ELI5-Bibliothek, um lokale Gewichtungen zu generieren Salesforce. Es bietet eine umfassende Palette erklärbarer künstlicher Intelligenz und erklärbarer maschineller Lernfunktionen zur Lösung mehrerer Probleme, die in der Praxis Beurteilung bei der Generierung von Modellen für maschinelles Lernen erfordern. Für Datenwissenschaftler und ML-Forscher, die verschiedene Arten von Daten, Modellen und Erklärungstechniken in verschiedenen Phasen des ML-Prozesses interpretieren müssen, hofft OmniXAI, eine umfassende Bibliothek aus einer Hand bereitzustellen, die erklärbare KI einfach macht. 六个优秀的可解释AI (XAI)的Python框架推荐

Das Folgende ist ein Vergleich zwischen dem, was OmniXAI bietet, und anderen ähnlichen Bibliotheken六个优秀的可解释AI (XAI)的Python框架推荐

Das obige ist der detaillierte Inhalt von6 empfohlene Python-Frameworks für den Aufbau erklärbarer künstlicher Intelligenzsysteme (XAI). Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen