Heim  >  Artikel  >  Detaillierte Erläuterung der Alexnet-Netzwerkstruktur

Detaillierte Erläuterung der Alexnet-Netzwerkstruktur

(*-*)浩
(*-*)浩Original
2019-10-26 15:55:0912745Durchsuche

Das von Alex im Jahr 2012 vorgeschlagene Alexnet-Netzwerkstrukturmodell löste einen Hype bei der Anwendung neuronaler Netze aus und gewann den Meistertitel im Bilderkennungswettbewerb 2012, wodurch CNN zum Kernalgorithmusmodell bei der Bildklassifizierung wurde.

Detaillierte Erläuterung der Alexnet-Netzwerkstruktur

Das AlexNet-Modell ist in acht Schichten, 5 Faltungsschichten und 3 vollständig verbundene Schichten unterteilt. Jede Faltungsschicht enthält die Anregungsfunktion RELU und die lokale Antwortnormalisierung (LRN). ) Verarbeitung und anschließendes Downsampling (Poolverarbeitung). (Empfohlenes Lernen: Web-Frontend-Video-Tutorial)

Erste Schicht: Faltungsschicht 1, Eingabe ist 224×224×3224 mal 224 mal 3224 Für ein ×224×3-Bild beträgt die Anzahl der Faltungskerne 96. In der Arbeit beträgt die Größe des Faltungskerns 11×11×311 mal 11 mal 311×11×3; = 4, Schritt stellt die Schrittgröße dar, Pad = 0, was bedeutet, dass die Kante nicht erweitert wird

Wie groß ist das Bild nach der Faltung?

wide = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>height = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>dimention = 96<br/>

Dann fahren Sie fort (Local Response Normalized), gefolgt von Pooling pool_size = (3, 3), stride = 2, pad = 0, um schließlich die Feature-Map der ersten Faltungsschicht zu erhalten

Zweite Ebene: Faltungsschicht 2, die Eingabe ist die Feature-Map der vorherigen Faltungsschicht, die Anzahl der Faltungen beträgt 256 und die beiden GPUs im Papier haben jeweils 128 Faltungen. Die Größe des Faltungskerns beträgt: 5 × 5 × 485 mal 5 mal 485 × 5 × 48 pad = 2, Schritt = 1; und schließlich max_pooling, pool_size = (3, 3), Schritt = 2;

Die dritte Schicht: Faltung 3, die Eingabe ist die Ausgabe der zweiten Schicht, die Anzahl der Faltungskerne beträgt 384, kernel_size = (3×3×2563 mal 3 mal 2563× 3×256 ), Polsterung = 1, die dritte Schicht führt kein LRN und Pool aus

Die vierte Schicht: Faltung 4, die Eingabe ist die Ausgabe der dritten Schicht, die Anzahl der Faltungskerne sind 384, kernel_size = (3×33 mal 33×3), padding = 1, wie die dritte Schicht, kein LRN und Pool

Fünfte Schicht:Faltung 5, Eingabe ist vierter Die Ausgabe der Schicht hat 256 Faltungskerne, kernel_size = (3×33 mal 33×3) und padding = 1. Fahren Sie dann direkt mit max_pooling, pool_size = (3, 3), stride = 2;

Die 6., 7. und 8. Schicht sind vollständig verbundene Schichten fort, die Anzahl der Neuronen in jeder Schicht ist 4096 und der endgültige Ausgabe-Softmax beträgt 1000, da wie oben erwähnt die Anzahl der Kategorien im ImageNet-Wettbewerb 1000 beträgt. RELU und Dropout werden in der vollständig verbundenen Schicht verwendet.

Das obige ist der detaillierte Inhalt vonDetaillierte Erläuterung der Alexnet-Netzwerkstruktur. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn