Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Drei Möglichkeiten, wie Forscher die KI-Entscheidungsfindung richtig verstehen können

Drei Möglichkeiten, wie Forscher die KI-Entscheidungsfindung richtig verstehen können

王林
王林nach vorne
2023-04-12 10:43:111101Durchsuche

Das Verständnis der Entscheidungsfindung durch künstliche Intelligenz ist für Forscher, politische Entscheidungsträger und die breite Öffentlichkeit sehr wichtig. Glücklicherweise gibt es Möglichkeiten, sicherzustellen, dass wir mehr wissen. Deep-Learning-Modelle, die von hochmodernen KI-Unternehmen und Wissenschaftlern verwendet werden, sind so komplex geworden, dass selbst die Forscher, die die Modelle erstellen, Schwierigkeiten haben, die getroffenen Entscheidungen zu verstehen.

Dies spiegelte sich am deutlichsten in einem bestimmten Turnier wider. Bei diesem Spiel sind Datenwissenschaftler und professionelle Go-Spieler oft durch die Entscheidungsfindung der künstlichen Intelligenz während des Spiels verwirrt, da sie informelle Spiele ausführt, die nicht als die stärksten Züge gelten.

Drei Möglichkeiten, wie Forscher die KI-Entscheidungsfindung richtig verstehen können

Um die von ihnen erstellten Modelle besser zu verstehen, haben KI-Forscher drei Hauptinterpretationsmethoden entwickelt. Hierbei handelt es sich um lokale Erklärungsmethoden, die nur eine bestimmte Entscheidung erklären und nicht die Entscheidung des gesamten Modells, was angesichts des Maßstabs eine Herausforderung sein kann.

Drei Möglichkeiten, wie Forscher die KI-Entscheidungsfindung richtig verstehen können

Feature-Attribution

Durch Feature-Attribution identifiziert ein KI-Modell, welche Teile der Eingabe für eine bestimmte Entscheidung wichtig sind. Bei Röntgenaufnahmen können Forscher Heatmaps oder einzelne Pixel sehen, die das Modell für seine Entscheidungen als am wichtigsten erachtet.

Anhand dieser Feature-Attribution-Erklärung kann überprüft werden, ob falsche Korrelationen vorliegen. Es zeigt beispielsweise an, ob Pixel im Wasserzeichen hervorgehoben sind oder ob Pixel im tatsächlichen Tumor hervorgehoben sind.

Kontrafaktische Erklärung

Wenn wir eine Entscheidung treffen, sind wir möglicherweise verwirrt und fragen uns, warum die KI diese oder jene Entscheidung getroffen hat. Da KI in risikoreichen Umgebungen wie Gefängnissen, Versicherungen oder Hypothekendarlehen eingesetzt wird, sollte das Verständnis von KI-Ablehnungsfaktoren oder Berufungsgründen ihnen dabei helfen, bei ihrem nächsten Antrag eine Genehmigung zu erhalten.

Der Vorteil des kontrafaktischen Interpretationsansatzes besteht darin, dass er Ihnen genau sagt, wie Sie die Eingabe ändern müssen, um die Entscheidung umzukehren, was praktische Vorteile haben kann. Für diejenigen, die eine Hypothek beantragt, aber keine erhalten haben, wird diese Erklärung zeigen, was sie tun müssen, um die gewünschten Ergebnisse zu erzielen.

Stichprobenbedeutung

Die Interpretation der Stichprobenbedeutung erfordert Zugriff auf die zugrunde liegenden Daten hinter dem Modell. Wenn Forscher bemerken, was ihrer Meinung nach ein Fehler ist, können sie eine Beispielsignifikanzinterpretation durchführen, um zu sehen, ob die KI mit Daten gefüttert wurde, die sie nicht berechnen konnte, was zu Fehlern bei der Beurteilung führte.

Das obige ist der detaillierte Inhalt vonDrei Möglichkeiten, wie Forscher die KI-Entscheidungsfindung richtig verstehen können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen