Heim >Technologie-Peripheriegeräte >KI >Ein Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal

Ein Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal

王林
王林Original
2024-07-15 16:19:52891Durchsuche

Kürzlich veröffentlichte die Teilzeitschrift „Nature“ ein Forschungsergebnis, das herausfinden kann, wo neuronale Netze schief gehen. Das Forschungsteam stellt eine Visualisierungsmethode bereit, die mithilfe der Topologie die Beziehung zwischen den Inferenzergebnissen neuronaler Netze und ihrer Klassifizierung beschreibt. Dieses Ergebnis kann Forschern dabei helfen, auf die spezifischen Umstände der Verwirrung beim Denken in neuronalen Netzen zu schließen und Systeme der künstlichen Intelligenz transparenter zu machen.

Ein Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal

Forscher decken Fehlerstellen bei der Inferenz neuronaler Netze auf
  1. Spitzen neuronaler Netze offenbaren Inferenzfehler:

    • Forschung findet Datendiagrammspitzen bei Inferenzen neuronaler Netze, die Urteile verwischen und damit verbundene Fehler erzeugen.
    • Das Beobachten von Spitzen kann dabei helfen, Fehlerquellen in KI-Systemen zu identifizieren.
  2. Mangelnde Transparenz im Denkprozess neuronaler Netze:

    • Neuronale Netze können Probleme gut lösen, aber ihr Denkprozess ist undurchsichtig, was Bedenken hinsichtlich der Zuverlässigkeit aufkommen lässt.
    • Neue Forschungsergebnisse bieten eine Möglichkeit, die Fehlerquelle in neuronalen Netzen zu entdecken.
  3. Die „Black Box“-Eigenschaften neuronaler Netze:

    • Für neuronale Netze ist es schwierig zu verstehen, wie Probleme gelöst werden können, was es schwierig macht, die Richtigkeit der Antwort zu beurteilen.
    • Forscher können den Entscheidungsprozess des neuronalen Netzwerks nicht für eine einzelne Probe nachvollziehen.
  4. Entscheidungsergebnisse visualisieren:

    • Anstatt die Entscheidungen einzelner Proben zu verfolgen, visualisierten die Forscher die Beziehung zwischen den Entscheidungsergebnissen des neuronalen Netzwerks für die gesamte Datenbank und den Proben.
    • Dies hilft dabei, Bilder mit höherer Mehrklassenwahrscheinlichkeit zu identifizieren.
  5. Topologische Datenanalyse:

    • Forscher verwenden Topologie, um die Beziehung zwischen Inferenzergebnissen und Klassifizierung darzustellen.
    • Topologische Datenanalysetools helfen dabei, Ähnlichkeiten zwischen Datensätzen zu identifizieren.
    • Dieses Tool wurde verwendet, um die Beziehung zwischen Brustkrebs-Untergruppen und Genen zu analysieren.

      Ein Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal

      Link zum Papier: https://www.nature.com/articles/s42256-023-00749-8

Im Beziehungsdiagramm, das basierend auf den neuen Forschungsergebnissen erstellt wurde:

  • Jeder Punkt stellt einen neuronalen Punkt dar Netzwerk Gruppen von Bildern, die als zusammenhängend gelten
  • Karten verschiedener Kategorien werden durch unterschiedliche Farben dargestellt
  • Je geringer der Abstand zwischen den Punkten, desto ähnlicher betrachtet das neuronale Netzwerk jede Bildgruppe

Die meisten dieser Karten zeigen einen einzelnen Farbpunkt Gruppe.

Ein Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal

Zwei überlappende Punkte unterschiedlicher Farbe weisen auf Bilder hin, die mit hoher Wahrscheinlichkeit zu mehreren Kategorien gehören. „Unser Ansatz ist in der Lage, ein kartenähnliches Beziehungsdiagramm zu erstellen, das bestimmte Bereiche der Daten vergrößert“, sagte Gleich. „Diese Bereiche sind oft Orte, an denen die Grenzen bestimmter Kategorien nicht klar sind und die Lösung möglicherweise nicht klar ist.“ Es ist jedoch klar, dass es bestimmte Datenvorhersagen hervorheben kann, die einer weiteren Untersuchung bedürfen. Die mit der neuen Methode generierten Karten können Bereiche anzeigen, die das Netzwerk nicht klassifizieren kann. Diese Methode bietet Forschern die Möglichkeit, „die angeborene menschliche Denkweise zu nutzen, um über die Argumentation neuronaler Netze zu spekulieren“. „Dadurch können wir basierend auf unserem Wissen vorhersagen, wie das Netzwerk auf neuartige Eingaben reagieren wird“, sagte Gleich. Das Team stellte fest, dass neuronale Netze besonders anfällig für verwirrende Muster in Kategorien wie Bruströntgenaufnahmen, genetischen Sequenzen usw. sind. und Kleidung. Als beispielsweise ein Netzwerk mit der Imagenette-Datenbank (einer Teilmenge von ImageNet) getestet wurde, klassifizierte es wiederholt Bilder von Autos als Kassettenrekorder. Sie fanden heraus, dass dies daran lag, dass die Bilder aus Online-Einkaufslisten stammten und Etiketten für Car-Audio-Geräte enthielten.
Der neue Ansatz des Teams hilft aufzudecken, „was schief gelaufen ist“. Gleich sagte: „Die Analyse von Daten auf dieser Ebene ermöglicht es Wissenschaftlern, nicht nur eine Reihe nützlicher Vorhersagen zu neuen Daten zu treffen, sondern auch tiefgreifend zu verstehen, wie neuronale Netze ihre Daten verarbeiten könnten.“ „Die Trainingsdaten selbst enthalten Fehler“, sagte Gleich. „Menschen machen Fehler, wenn sie Daten manuell kennzeichnen.“
Mögliche Einsatzmöglichkeiten dieser Analysestrategie könnten besonders wichtige Anwendungen neuronaler Netze sein. Denken Sie beispielsweise an die Anwendung neuronaler Netze im Gesundheitswesen oder in der Medizin zur Untersuchung von Sepsis oder Hautkrebs.
Kritiker argumentieren, dass KI-Systeme frühere Fehler wiederholen werden, da die meisten neuronalen Netze auf Entscheidungen aus der Vergangenheit trainiert werden, die bereits bestehende Vorurteile gegenüber menschlichen Gruppen widerspiegeln. Einen Weg zu finden, „Voreingenommenheit oder Voreingenommenheit in Vorhersagen zu verstehen“ mithilfe neuer Tools könnte ein erheblicher Fortschritt sein, sagte Gleich.
Gleich sagte, das neue Tool könne mit neuronalen Netzen verwendet werden, um aus kleinen Datensätzen spezifische Vorhersagen zu generieren, etwa „ob eine genetische Mutation wahrscheinlich schädlich ist.“ Bisher haben Forscher jedoch keine Möglichkeit, es auf große Sprachmodelle oder Diffusionsmodelle anzuwenden.
Weitere Informationen finden Sie im Originalpapier.
Referenzinhalt:
https://spectrum.ieee.org/ai-mistakes
https://www.cs.purdue.edu/homes/liu1740/
https://www.cs.purdue.edu/homes/ tamaldey/
https://www.cs.purdue.edu/homes/dgleich/

Das obige ist der detaillierte Inhalt vonEin Visualisierungstool, das Fehler in neuronalen Netzwerken finden kann, enthalten im Nature-Unterjournal. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn