suchen
HeimTechnologie-PeripheriegeräteKIÜberblick über die Prinzipien der Transformatortechnologie

Überblick über die Prinzipien der Transformatortechnologie

1. Vorwort

AIGC (AI-Generated Content) hat sich in letzter Zeit rasant entwickelt und ist nicht nur bei Verbrauchern gefragt, sondern erregt auch Aufmerksamkeit in Technologie- und Branchenkreisen. Am 23. September 2022 veröffentlichte Sequoia America einen Artikel mit dem Titel „Generative AI: A Creative New World“ und glaubte, dass AIGC den Beginn einer neuen Runde des Paradigmenwechsels darstellen wird. Im Oktober 2022 veröffentlichte Stability AI das Open-Source-Modell Stable Diffusion, das automatisch Bilder basierend auf von Benutzern eingegebenen Textbeschreibungen (sogenannten Eingabeaufforderungen) generieren kann, nämlich Text-to-Image, DALL-E 2, Midjourney, Wenxin Yige und andere AIGC-Modelle, die Bilder erzeugen können, haben den Bereich der KI-Malerei zum Durchbruch gebracht. KI-Malerei ist populär geworden und markiert das Eindringen künstlicher Intelligenz in den Kunstbereich. Das Bild unten zeigt die Arbeit zum Thema „Future Mecha“, die von Baidus „Wenxin Yige“-Plattform erstellt wurde.


Überblick über die Prinzipien der Transformatortechnologie

Abbildung 1 KI-Gemälde erstellt von Baidus „Wenxin Yige“-Plattform

Die rasante Entwicklung des AIGC-Bereichs ist untrennbar mit dem Fortschritt tiefer neuronaler Netze verbunden. Insbesondere verleiht das Aufkommen des Transformationsmodells dem neuronalen Netzwerk leistungsfähigere globale Rechenfunktionen, reduziert den Zeitaufwand für das Netzwerktraining und verbessert die Leistung des Netzwerkmodells. Die aktuellen AIGC-Domänenmodelle, die relativ gut funktionieren, umfassen Aufmerksamkeits- und Transformationstechnologien in ihrer zugrunde liegenden technischen Architektur. 2. Entwicklungsgeschichte Im Jahr 2006 verwendeten Hinton et al. ein einschichtiges RBM-Autoencoding-Vortraining, um ein tiefes neuronales Netzwerktraining zu realisieren. Im Jahr 2012 erreichte das von Hinton und Alex Krizhevsky entwickelte neuronale Netzwerkmodell AlexNet die Bilderkennung und -klassifizierung und wurde zu einem neuen Modell Runde Der Ausgangspunkt für die Entwicklung der Künstlichen Intelligenz. Das derzeit beliebte tiefe neuronale Netzwerk basiert auf den Konzepten biologischer neuronaler Netzwerke. In biologischen neuronalen Netzen übertragen biologische Neuronen empfangene Informationen Schicht für Schicht, und die Informationen von mehreren Neuronen werden aggregiert, um das Endergebnis zu erhalten. Mathematische Modelle, die mithilfe logischer neuronaler Einheiten erstellt werden, die analog zu biologischen neuronalen Einheiten gestaltet sind, werden als künstliche neuronale Netze bezeichnet. In künstlichen neuronalen Netzen werden logische neuronale Einheiten verwendet, um die verborgene Beziehung zwischen Eingabedaten und Ausgabedaten zu untersuchen. Wenn die Datenmenge gering ist, können flache neuronale Netze die Anforderungen einiger Aufgaben erfüllen Zunehmende, expandierende, tiefe neuronale Netze beginnen, ihre einzigartigen Vorteile zu zeigen.

2.2 Aufmerksamkeitsmechanismus

Der Aufmerksamkeitsmechanismus wurde 2014 vom Bengio-Team vorgeschlagen und wurde in den letzten Jahren häufig in verschiedenen Bereichen des Deep Learning eingesetzt, beispielsweise im Computer Vision zur Aufnahme von Bildern um wichtige Token oder Funktionen im NLP zu finden. Eine große Anzahl von Experimenten hat gezeigt, dass Modelle mit Aufmerksamkeitsmechanismen erhebliche Verbesserungen bei der Bildklassifizierung, Segmentierung, Verfolgung, Verbesserung sowie beim Erkennen, Verstehen, Beantworten und Übersetzen natürlicher Sprache erzielt haben. Der Aufmerksamkeitsmechanismus ist dem visuellen Aufmerksamkeitsmechanismus nachempfunden. Der visuelle Aufmerksamkeitsmechanismus ist eine angeborene Fähigkeit des menschlichen Gehirns. Wenn wir ein Bild sehen, scannen wir zunächst schnell das Bild und fokussieren uns dann auf den Zielbereich, auf den fokussiert werden muss. Wenn wir beispielsweise die folgenden Bilder betrachten, fällt unsere Aufmerksamkeit leicht auf das Gesicht des Babys, den Titel des Artikels und den ersten Satz des Artikels. Stellen Sie sich vor, wenn nicht jede lokale Information losgelassen wird, wird viel Energie verbraucht, was dem Überleben und der Entwicklung des Menschen nicht förderlich ist. Ebenso kann die Einführung ähnlicher Mechanismen in Deep-Learning-Netzwerke Modelle vereinfachen und Berechnungen beschleunigen. Im Wesentlichen besteht Aufmerksamkeit darin, aus einer großen Informationsmenge eine kleine Menge wichtiger Informationen herauszufiltern und sich auf diese wichtigen Informationen zu konzentrieren, während die meisten unwichtigen Informationen ignoriert werden.

Abbildung 2 Schematische Darstellung des menschlichen Aufmerksamkeitsmechanismus


3. Technische Details

Überblick über die Prinzipien der Transformatortechnologie

Das intelligente Transformer-Modell verzichtet auf die traditionellen CNN- und RNN-Einheiten und die gesamte Netzwerkstruktur besteht vollständig aus Aufmerksamkeitsmechanismen. In diesem Kapitel stellen wir zunächst den Gesamtprozess des Transformer-Modells vor und stellen dann die damit verbundenen Positionskodierungsinformationen und Selbstaufmerksamkeitsberechnungen im Detail vor.

3.1 Übersicht über den Prozess


# 🎜 ## oben Wie in der Abbildung gezeigt, besteht Transformer aus zwei Teilen: Encoder-Modul und Decoder-Modul. Sowohl Encoder als auch Decoder enthalten N Blöcke. Am Beispiel der Übersetzungsaufgabe sieht der Workflow von Transformer ungefähr wie folgt aus:

Überblick über die Prinzipien der Transformatortechnologie Schritt 1: Erhalten Sie den Darstellungsvektor X jedes Wortes des Eingabesatzes.

Schritt 2: Übergeben Sie die erhaltene Wortdarstellungsvektormatrix an das Encoder-Modul. Das Encoder-Modul verwendet die Attention-Methode, um die Eingabedaten zu berechnen. Nach N Encoder-Modulen kann die Codierungsinformationsmatrix aller Wörter im Satz abgerufen werden. Die von jedem Encoder-Modul ausgegebenen Matrixdimensionen sind genau die gleichen wie die Eingabe.

Der dritte Schritt: Übergeben Sie die vom Encoder-Modul ausgegebene Codierungsinformationsmatrix an das Decoder-Modul, und der Decoder übersetzt das nächste Wort i + 1 basierend auf dem aktuell übersetzten Wort i. Wie die Encoder-Struktur verwendet auch die Decoder-Struktur die Attention-Methode zur Berechnung. Während der Verwendung müssen Sie beim Übersetzen in das Wort i+1 die Maskenoperation verwenden, um die Wörter nach i+1 abzudecken.

3.2 Selbstaufmerksamkeitsberechnung

Der Kern des Transform-Modells ist die Aufmerksamkeitsberechnung, die sein kann berechnet durch die Formel Dargestellt als

wobei Q, K und V jeweils Abfrage, Schlüssel und Wert darstellen. Diese drei Konzepte sind Aus dem Informationsabrufsystem nehmen wir ein einfaches Suchbeispiel. Wenn Sie auf einer E-Commerce-Plattform nach einem Produkt suchen, geben Sie in die Suchmaschine den Inhalt einer Suchanfrage ein, und die Suchmaschine gleicht dann den Schlüssel für Sie basierend auf der Suchanfrage ab (z. B. Typ, Farbe, Beschreibung usw.). ) des Produkts und erhält dann basierend auf der Abfrage und der Ähnlichkeit des Schlüssels den passenden Inhalt (Wert). Q, K, V in der Selbstaufmerksamkeit spielen ebenfalls eine ähnliche Rolle. Bei Matrixberechnungen ist das Skalarprodukt eine der Methoden zur Berechnung der Ähnlichkeit zweier Matrizen, daher wird die obige Formel verwendet Die Matrix wird mit der Transponierten der K-Matrix multipliziert, um die Ähnlichkeit zu berechnen. Um zu verhindern, dass das innere Produkt zu groß wird, muss es durch die Quadratwurzel von d geteilt werden und schließlich wird eine Softmax-Aktivierungsfunktion auf das Ergebnis angewendet.

3.3 Positionskodierung

Überblick über die Prinzipien der Transformatortechnologie

Zusätzlich zur Einbettung des Wortes selbst muss der Transformer dies auch tun Verwenden Sie die Positionseinbettung, um die Wortposition im Satz darzustellen. Da Transformer nicht die Struktur von RNN, sondern globale Informationen verwendet, kann er die Reihenfolgeinformationen von Wörtern nicht verwenden, und dieser Teil der Informationen ist für NLP oder CV sehr wichtig. Daher wird Position Embedding in Transformer verwendet, um die relative oder absolute Position des Wortes in der Sequenz zu speichern.

Position Embedding wird durch PE dargestellt, und die Dimension von PE ist dieselbe wie die des Wortes Embedding. Der PE kann durch Training erlangt oder anhand einer bestimmten Formel berechnet werden. Letzteres wird in Transformer verwendet und die Berechnungsformel lautet wie folgt:

wobei pos die Position des darstellt Wort im Satz, d repräsentiert die Dimension von PE, seine Größe entspricht der Einbettung des Wortes selbst, 2i repräsentiert die gerade Dimension und 2i + 1 repräsentiert die ungerade Dimension.

4. Zusammenfassung

Der Fokus von Transformer liegt auf der Selbstaufmerksamkeitsstruktur. Durch die mehrdimensionale Aufmerksamkeitsstruktur kann das Netzwerk die verborgenen Beziehungen zwischen Wörtern in mehreren Dimensionen erfassen. Allerdings kann Transformer selbst die Reihenfolgeninformationen von Wörtern nicht verwenden, daher ist die Positionseinbettung erforderlich zur Eingabe hinzugefügt werden, um die Positionsinformationen von Wörtern zu speichern. Im Vergleich zum rekursiven neuronalen Netzwerk kann das Transformer-Netzwerk besser parallel trainiert werden. Im Vergleich zum Faltungs-Neuronalen Netzwerk nimmt die Anzahl der Operationen, die das Transformer-Netzwerk zur Berechnung der Zuordnung zwischen zwei Positionen benötigt, nicht mit der Entfernung zu, die unterbrochen werden kann Durch das Faltungs-Neuronale Netzwerk ist die berechnete Entfernung auf die Größe des Empfangsfeldes begrenzt. Gleichzeitig kann das Transformer-Netzwerk besser interpretierbare Modelle erzeugen. Wir können die Aufmerksamkeitsverteilung anhand des Modells untersuchen und jeder Aufmerksamkeitskopf kann lernen, unterschiedliche Aufgaben auszuführen.

Das obige ist der detaillierte Inhalt vonÜberblick über die Prinzipien der Transformatortechnologie. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Dieser Artikel ist reproduziert unter:51CTO.COM. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen
Was ist Alteryx? | Analytics VidhyaWas ist Alteryx? | Analytics VidhyaApr 15, 2025 am 11:03 AM

Alteryx: Ihre All-in-One-Datenanalyselösung Stellen Sie sich vor, Sie befassen sich mit nur statistischen Daten als Hinweise auf ein komplexes Geheimnis. Datenfachleute stehen täglich ähnliche Herausforderungen. Alteryx ist die Lösung, die den Benutzern die Erreichung von Datenkomplexitäten mit OUS ermöglichen

LAMA 3.1 vs Lama 3: Was ist besser?LAMA 3.1 vs Lama 3: Was ist besser?Apr 15, 2025 am 10:53 AM

Metas Lama 3.1 70b und Lama 3 70b: ein detaillierter Vergleich Meta veröffentlichte kürzlich Lama 3.1, einschließlich des 70B -Parametermodells, neben größeren und kleineren Varianten. Dieses Upgrade folgt der Lama 3 -Veröffentlichung erst drei Monate zuvor. Während Lama 3.1

7 AI PPT -Hersteller, mit denen Sie kostenlos beginnen können!7 AI PPT -Hersteller, mit denen Sie kostenlos beginnen können!Apr 15, 2025 am 10:51 AM

Entfesseln Sie Ihre Präsentationskraft: 7 kostenlose KI-betriebene PowerPoint-Hersteller Egal, ob Sie ein Student im letzten Jahr sind, der ein herausragendes Capstone-Projekt oder ein geschäftiges professionelles Jonglier Meetings und Präsentationen erstellt, ist es von größter Bedeutung, einen starken ersten Eindruck zu hinterlassen.

Was sind Power BI -semantische Modelle?Was sind Power BI -semantische Modelle?Apr 15, 2025 am 10:46 AM

Einführung Stellen Sie sich ein Szenario vor: Ihr Team ist von einem massiven Datensatz aus verschiedenen Quellen überwältigt. Das Integrieren, Sortieren und Analysieren dieser Informationen für eine aussagekräftige Präsentation ist eine Herausforderung. Hier ist Power BI -semantische Modelle (PBISM) ex

So bauen Sie einen AI -Agenten mit Lama Index und Monsterapi aufSo bauen Sie einen AI -Agenten mit Lama Index und Monsterapi aufApr 15, 2025 am 10:44 AM

AI -Agenten: Die Zukunft der KI, angetrieben von Lamaindex und Monsterapi KI -Agenten sind bereit, zu revolutionieren, wie wir mit Technologie interagieren. Diese autonomen Systeme imitieren das menschliche Verhalten und führen Aufgaben aus, die Argumentation, Entscheidungsfindung und REA erfordern

7 Möglichkeiten, LLMs ohne menschliche Intervention zu trainieren7 Möglichkeiten, LLMs ohne menschliche Intervention zu trainierenApr 15, 2025 am 10:38 AM

Entsperren autonomer KI: 7 Methoden zur Selbsttraining-LLMs Stellen Sie sich eine Zukunft vor, in der KI -Systeme ohne menschliche Intervention lernen und weiterentwickeln, ähnlich wie Kinder, die komplexe Konzepte unabhängig voneinander beherrschen. Dies ist keine Science -Fiction; Es ist das Versprechen des Selbst

Transformation der Finanzberichterstattung mit AI und NLG - Analytics VidhyaTransformation der Finanzberichterstattung mit AI und NLG - Analytics VidhyaApr 15, 2025 am 10:35 AM

KI-betriebene Finanzberichterstattung: Erkenntnisse durch natürliche Sprachgenerierung revolutionieren In der heutigen dynamischen Geschäftsumgebung ist eine genaue und zeitnahe Finanzanalyse für strategische Entscheidungen von größter Bedeutung. Traditionelle Finanzberichterstattung

Wird dieser Google DeepMind -Roboter bei den Olympischen Spielen 2028 spielen?Wird dieser Google DeepMind -Roboter bei den Olympischen Spielen 2028 spielen?Apr 15, 2025 am 10:16 AM

Google DeepMinds Tischtennisroboter: Eine neue Ära in Sport und Robotik Die Olympischen Spiele in Paris 2024 mögen vorbei sein, aber dank Google DeepMind ist eine neue Ära in Sport und Robotik geweckt. Ihre bahnbrechende Forschung ("Kompetenz auf Menschenebene erreichen

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Wie man alles in Myrise freischaltet
1 Monate vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

VSCode Windows 64-Bit-Download

VSCode Windows 64-Bit-Download

Ein kostenloser und leistungsstarker IDE-Editor von Microsoft

EditPlus chinesische Crack-Version

EditPlus chinesische Crack-Version

Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

SublimeText3 Linux neue Version

SublimeText3 Linux neue Version

SublimeText3 Linux neueste Version

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

DVWA

DVWA

Damn Vulnerable Web App (DVWA) ist eine PHP/MySQL-Webanwendung, die sehr anfällig ist. Seine Hauptziele bestehen darin, Sicherheitsexperten dabei zu helfen, ihre Fähigkeiten und Tools in einem rechtlichen Umfeld zu testen, Webentwicklern dabei zu helfen, den Prozess der Sicherung von Webanwendungen besser zu verstehen, und Lehrern/Schülern dabei zu helfen, in einer Unterrichtsumgebung Webanwendungen zu lehren/lernen Sicherheit. Das Ziel von DVWA besteht darin, einige der häufigsten Web-Schwachstellen über eine einfache und unkomplizierte Benutzeroberfläche mit unterschiedlichen Schwierigkeitsgraden zu üben. Bitte beachten Sie, dass diese Software