suchen
HeimTechnologie-PeripheriegeräteKIZusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box'-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern können

Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern können

Herausgeber |. Ziluo

Tiefes maschinelles Lernen hat in verschiedenen Bereichen der KI bemerkenswerte Erfolge erzielt, aber das gleichzeitige Erreichen einer hohen Interpretierbarkeit und hohen Effizienz ist immer noch eine ernsthafte Herausforderung

Tensor-Netzwerk, nämlich Tensor Network (TN), stammt aus der Quantenmechanik und ist ein ausgereiftes mathematisches Werkzeug. Es hat einzigartige Vorteile bei der Entwicklung effizienter „White-Box“-Lösungen für maschinelles Lernen gezeigt

Kürzlich ließen sich Ran Shiju von der Capital Normal University und Su Gang von der University of Chinese Academy of Sciences von der Quantenmechanik inspirieren und überprüften eine TN-basierte Innovationsmethode. Bereitstellung einer vielversprechenden Lösung für die seit langem bestehende Herausforderung, Interpretierbarkeit und Effizienz beim tiefen maschinellen Lernen in Einklang zu bringen.

Einerseits kann die Interpretierbarkeit von TN ML durch eine solide theoretische Grundlage basierend auf Quanteninformation und Vielteilchenphysik erreicht werden. Andererseits können leistungsstarke TN-Ausdrücke und fortschrittliche Rechentechniken, die in der Quanten-Vielteilchenphysik entwickelt wurden, eine hohe Effizienz erzielen. Mit der rasanten Entwicklung von Quantencomputern wird erwartet, dass TN in naher Zukunft neuartige Lösungen hervorbringen wird, die auf Quantenhardware in Richtung „Quanten-KI“ laufen können

Diese Rezension basiert auf „Tensor-Netzwerke für interpretierbare und effiziente Inspired Machine Learning “ trug den Titel „Intelligent Computing“ und wurde am 17. November 2023 veröffentlicht.

Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern können

Link zum Papier: https://spj.science.org/doi/10.34133/icomputing.0061

Deep-Learning-Modelle, insbesondere neuronale Netzwerkmodelle, werden aufgrund ihrer Entscheidung oft als „Black Boxes“ bezeichnet Der Herstellungsprozess ist komplex und schwer zu erklären. Neuronale Netze sind derzeit das leistungsstärkste Deep-Learning-Modell. Ein Paradebeispiel für seine Leistungsfähigkeit ist GPT. Aufgrund der mangelnden Erklärbarkeit stehen jedoch auch GPT vor ernsthaften Problemen wie Robustheit und Datenschutz. Die mangelnde Erklärbarkeit dieser Modelle kann zu einem Mangel an Vertrauen in ihre Vorhersagen und Entscheidungen führen und somit ihre Verwendung in wichtigen praktischen Bereichen einschränken Anwendung

Tensornetzwerke basierend auf Quanteninformation und Mehrkörperphysik bieten einen „White-Box“-Ansatz für ML. Die Forscher sagten: „Tensornetzwerke spielen eine entscheidende Rolle bei der Verbindung von Quantenkonzepten, -theorien und -methoden mit ML und der effektiven Implementierung von auf Tensornetzwerken basierendem ML.“ Die Quantenphysik hat leistungsstarke „White-Box“-Mathematikwerkzeuge hervorgebracht.

Mit der rasanten Entwicklung des klassischen und Quantencomputings liefert TN neue Ideen zur Überwindung des Dilemmas zwischen Interpretierbarkeit und Effizienz. TN ist definiert als die Kontraktion mehrerer Tensoren. Seine Netzwerkstruktur bestimmt, wie der Tensor schrumpft.

In Abbildung 1 ist eine schematische Darstellung der drei TN-Typen dargestellt. Diese drei Typen sind die Matrixproduktzustandsdarstellung (MPS), die Baum-TN und die projizierte verschränkte Paarzustandsdarstellung (PEPS)

Abbildung 1: Grafische Darstellung von 3 TN-Typen: (A) MPS, (B) )Baum-TN und (C)PEPS. (Quelle: Papier)

TN hat auf dem Gebiet der Quantenmechanik bemerkenswerte Erfolge als effiziente Darstellung des Zustands großer Quantensysteme erzielt. In der TN-Theorie können Zustände, die das Flächengesetz der Verschränkungsentropie erfüllen, effizient durch eine TN-Darstellung mit endlichen Bindungsdimensionen angenähert werden. Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern können

MPS-basierte Algorithmen, einschließlich Dichtematrix-Renormierungsgruppen und zeitlich weiterentwickelter Blockextraktion, zeigen eine erhebliche Effizienz bei der Simulation der Verschränkungsentropie. Darüber hinaus kann MPS auch viele künstlich konstruierte Zustände darstellen, die in der Quanteninformationsverarbeitung und -berechnung weit verbreitet sind, wie etwa den Greenberger-Horne-Zeilinger-Zustand und den W-Zustand.

PEPS steht für das Flächengesetz, das zwei Dimensionen und höher gehorcht und große Erfolge bei der Untersuchung hochdimensionaler Quantensysteme erzielt hat. Zusammenfassend liefert das Flächengesetz der Verschränkungsentropie eine wesentliche Erklärung für die Darstellung oder Rechenleistung von TN bei der Simulation von Quantensystemen. Diese Erklärung gilt auch für TN ML. Darüber hinaus kann TN als numerisches „White-Box“-Werkzeug (Born-Maschine), ähnlich dem (klassischen) Wahrscheinlichkeitsmodell von ML, durch Borns Quantenwahrscheinlichkeitsinterpretation (auch bekannt als Borns Regel) erklärt werden

Bild 2: MPS ( Tensor-Train-Form) kann verwendet werden, um eine große Anzahl mathematischer Objekte effektiv darzustellen oder zu formulieren. (Zitiert aus: Aufsatz)

Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern könnenTechnologische Fortschritte beim maschinellen Lernen, inspiriert durch Quanten (Technologische Fortschritte beim maschinellen Lernen, inspiriert durch Quanten)

TN bietet dank seiner fundierten Theorie und effektiven Methoden eine neue Möglichkeit, das Dilemma zwischen Interpretierbarkeit und Effizienz beim maschinellen Lernen zu lösen. Derzeit werden zwei miteinander verflochtene Forschungsrichtungen diskutiert:

  1. Wie kann die Quantentheorie als mathematische Grundlage für die Interpretierbarkeit von TN ML dienen?
  2. Wie erzeugen quantenmechanische TN-Methoden und Quantencomputertechnologie effiziente TN-ML-Lösungen?

In diesem Inhalt stellen Forscher die jüngsten ermutigenden Fortschritte bei quanteninspiriertem ML aus der Perspektive von Feature-Mapping, Modellierung und quantencomputerbasiertem ML vor und eröffnen Diskussionen rund um diese beiden Themen. Diese Fortschritte stehen in engem Zusammenhang mit den Vorteilen des Einsatzes von TN bei der Verbesserung der Effizienz und Interpretierbarkeit. Diese ML-Ansätze werden oft als „quanteninspiriert“ bezeichnet, da ihre Theorien, Modelle und Methoden aus der Quantenphysik stammen oder von dieser inspiriert sind. Wir brauchen jedoch mehr Anstrengungen, um ein Systemgerüst für Interpretierbarkeit auf der Grundlage der Quantenphysik zu entwickeln.

In der folgenden Tabelle sind die wichtigsten Methoden zu TN ML und ihre Beziehung zu Effizienz und Interpretierbarkeit zusammengefasst Maschinelles Lernen

Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern könnenAls grundlegendes mathematisches Werkzeug sind die Anwendungen neuronaler Netze in ML nicht auf solche beschränkt, die quantenprobabilistischen Interpretationen folgen. Da TN zur effektiven Darstellung und Simulation der Partitionsfunktion klassischer stochastischer Systeme wie der Ising- und Potts-Modelle verwendet werden kann, wurde die Beziehung zwischen TN und Boltzmann-Maschinen ausführlich untersucht.

TN wird auch verwendet, um NN zu verbessern und neuartige ML-Modelle zu entwickeln, wobei jegliche probabilistische Interpretation ignoriert wird. Ins Chinesische umgeschrieben: TN wird auch verwendet, um NN zu verbessern und neuartige ML-Modelle zu entwickeln, unabhängig von einer probabilistischen Interpretation. Auf derselben Grundlage werden Modellkomprimierungsmethoden vorgeschlagen, um die Variationsparameter von NN in TN zu zerlegen oder die Variationsparameter direkt als TN darzustellen. Letzteres erfordert möglicherweise keinen expliziten Zerlegungsprozess, bei dem die Parameter des neuronalen Netzwerks nicht in Tensoren, sondern direkt in TT-Formen, Matrixproduktoperatoren oder tiefen TNs wiederhergestellt werden. TN wurden nichtlineare Aktivierungsfunktionen hinzugefügt, um die ML-Leistung zu verbessern und TN von multilinearen Modellen auf nichtlineare Modelle zu verallgemeinern.

Was neu geschrieben werden muss, ist: Fazit

Die Menschen sind seit langem daran interessiert, das Dilemma zwischen Effizienz und Erklärbarkeit in der künstlichen Intelligenz (insbesondere tiefem maschinellen Lernen) zu lösen. In diesem Zusammenhang überprüfen wir die ermutigenden Fortschritte von TN, einer interpretierbaren und effizienten quanteninspirierten Methode des maschinellen Lernens. Der „N ML-Schmetterling“ in Abbildung 3 listet die Erfolge von TN im Bereich ML Advantage auf. Für quanteninspiriertes ML lassen sich die Vorteile von TN in zwei Schlüsselaspekten zusammenfassen: Quantentheorie für Interpretierbarkeit und Quantenmethoden für verbesserte Effizienz. Einerseits ermöglicht uns TN, Statistiken und Quantentheorie (z. B. Verschränkungstheorie) anzuwenden, um probabilistische Rahmenwerke für die Interpretierbarkeit zu erstellen, die möglicherweise über das hinausgehen, was durch klassische Information oder statistische Theorie beschrieben werden kann. Andererseits werden leistungsstarke quantenmechanische TN-Algorithmen und eine stark verbesserte Quantencomputertechnologie dazu führen, dass quanteninspirierte TN-ML-Methoden sowohl auf klassischen als auch auf Quantencomputerplattformen hocheffizient sind.

Abbildung 3: „TN ML Butterfly“ fasst zwei einzigartige Vorteile zusammen: Interpretierbarkeit basierend auf Quantentheorie (linker Flügel) und Effizienz basierend auf Quantenmethoden (rechter Flügel). (Quelle: Papier)

Insbesondere mit den jüngsten erheblichen Fortschritten im Bereich GPT kam es zu einem beispiellosen Anstieg der Modellkomplexität und Rechenleistung, der TN ML neue Chancen und Herausforderungen mit sich brachte. Angesichts der aufkommenden GPT-KI wird Erklärbarkeit immer wertvoller, nicht nur um die Forschungseffizienz zu verbessern, sondern auch um eine bessere Anwendung und sicherere Kontrolle zu ermöglichen

In der aktuellen NISQ-Ära und der kommenden realen Ära des Quantencomputers entwickelt sich TN schnell entwickelt sich zu einem wichtigen mathematischen Werkzeug zur Erforschung der künstlichen Quantenintelligenz aus verschiedenen Perspektiven wie Theorie, Modell, Algorithmus, Software, Hardware und Anwendung

Zusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern könnenReferenzinhalt:

https://techxplore.com/news/2023 -11-tensor- Netzwerke-Effizienz-Quantum-inspirierte-Maschine.html

Das obige ist der detaillierte Inhalt vonZusammenfassung der Zusammenarbeit zwischen der National University of Science and Technology und der First Normal University: Aufdecken, wie „White-Box'-Tensornetzwerke die Interpretierbarkeit und Effizienz des quantenmaschinellen Lernens verbessern können. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Dieser Artikel ist reproduziert unter:机器之心. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen
Gemma Scope: Das Mikroskop von Google, um in den Denkprozess von AI zu blickenGemma Scope: Das Mikroskop von Google, um in den Denkprozess von AI zu blickenApr 17, 2025 am 11:55 AM

Erforschen der inneren Funktionsweise von Sprachmodellen mit Gemma -Umfang Das Verständnis der Komplexität von KI -Sprachmodellen ist eine bedeutende Herausforderung. Die Veröffentlichung von Gemma Scope durch Google, ein umfassendes Toolkit, bietet Forschern eine leistungsstarke Möglichkeit, sich einzuschütteln

Wer ist ein Business Intelligence Analyst und wie kann man einer werden?Wer ist ein Business Intelligence Analyst und wie kann man einer werden?Apr 17, 2025 am 11:44 AM

Erschließung des Geschäftserfolgs: Ein Leitfaden zum Analyst für Business Intelligence -Analyst Stellen Sie sich vor, Rohdaten verwandeln in umsetzbare Erkenntnisse, die das organisatorische Wachstum vorantreiben. Dies ist die Macht eines Business Intelligence -Analysts (BI) - eine entscheidende Rolle in Gu

Wie füge ich eine Spalte in SQL hinzu? - Analytics VidhyaWie füge ich eine Spalte in SQL hinzu? - Analytics VidhyaApr 17, 2025 am 11:43 AM

SQL -Änderungstabellanweisung: Dynamisches Hinzufügen von Spalten zu Ihrer Datenbank Im Datenmanagement ist die Anpassungsfähigkeit von SQL von entscheidender Bedeutung. Müssen Sie Ihre Datenbankstruktur im laufenden Flug anpassen? Die Änderungstabelleerklärung ist Ihre Lösung. Diese Anleitung Details Hinzufügen von Colu

Business Analyst vs. Data AnalystBusiness Analyst vs. Data AnalystApr 17, 2025 am 11:38 AM

Einführung Stellen Sie sich ein lebhaftes Büro vor, in dem zwei Fachleute an einem kritischen Projekt zusammenarbeiten. Der Business Analyst konzentriert sich auf die Ziele des Unternehmens, die Ermittlung von Verbesserungsbereichen und die strategische Übereinstimmung mit Markttrends. Simu

Was sind Count und Counta in Excel? - Analytics VidhyaWas sind Count und Counta in Excel? - Analytics VidhyaApr 17, 2025 am 11:34 AM

Excel -Datenzählung und -analyse: Detaillierte Erläuterung von Count- und Counta -Funktionen Eine genaue Datenzählung und -analyse sind in Excel kritisch, insbesondere bei der Arbeit mit großen Datensätzen. Excel bietet eine Vielzahl von Funktionen, um dies zu erreichen. Die Funktionen von Count- und Counta sind wichtige Instrumente zum Zählen der Anzahl der Zellen unter verschiedenen Bedingungen. Obwohl beide Funktionen zum Zählen von Zellen verwendet werden, sind ihre Designziele auf verschiedene Datentypen ausgerichtet. Lassen Sie uns mit den spezifischen Details der Count- und Counta -Funktionen ausgrenzen, ihre einzigartigen Merkmale und Unterschiede hervorheben und lernen, wie Sie sie in der Datenanalyse anwenden. Überblick über die wichtigsten Punkte Graf und Cou verstehen

Chrome ist hier mit KI: Tag zu erleben, täglich etwas Neues !!Chrome ist hier mit KI: Tag zu erleben, täglich etwas Neues !!Apr 17, 2025 am 11:29 AM

Die KI -Revolution von Google Chrome: Eine personalisierte und effiziente Browsing -Erfahrung Künstliche Intelligenz (KI) verändert schnell unser tägliches Leben, und Google Chrome leitet die Anklage in der Web -Browsing -Arena. Dieser Artikel untersucht die Exciti

Die menschliche Seite von Ai: Wohlbefinden und VierfacheDie menschliche Seite von Ai: Wohlbefinden und VierfacheApr 17, 2025 am 11:28 AM

Impacting Impact: Das vierfache Endergebnis Zu lange wurde das Gespräch von einer engen Sicht auf die Auswirkungen der KI dominiert, die sich hauptsächlich auf das Gewinn des Gewinns konzentrierte. Ein ganzheitlicherer Ansatz erkennt jedoch die Vernetzung von BU an

5 verwendende Anwendungsfälle für Quantum Computing, über die Sie wissen sollten5 verwendende Anwendungsfälle für Quantum Computing, über die Sie wissen solltenApr 17, 2025 am 11:24 AM

Die Dinge bewegen sich stetig zu diesem Punkt. Die Investition, die in Quantendienstleister und Startups einfließt, zeigt, dass die Industrie ihre Bedeutung versteht. Und eine wachsende Anzahl realer Anwendungsfälle entsteht, um seinen Wert zu demonstrieren

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Chat -Befehle und wie man sie benutzt
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

EditPlus chinesische Crack-Version

EditPlus chinesische Crack-Version

Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

WebStorm-Mac-Version

WebStorm-Mac-Version

Nützliche JavaScript-Entwicklungstools

Sicherer Prüfungsbrowser

Sicherer Prüfungsbrowser

Safe Exam Browser ist eine sichere Browserumgebung für die sichere Teilnahme an Online-Prüfungen. Diese Software verwandelt jeden Computer in einen sicheren Arbeitsplatz. Es kontrolliert den Zugriff auf alle Dienstprogramme und verhindert, dass Schüler nicht autorisierte Ressourcen nutzen.

SublimeText3 Englische Version

SublimeText3 Englische Version

Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung