Das von Alex im Jahr 2012 vorgeschlagene Alexnet-Netzwerkstrukturmodell löste einen Hype bei der Anwendung neuronaler Netze aus und gewann den Meistertitel im Bilderkennungswettbewerb 2012, wodurch CNN zum Kernalgorithmusmodell bei der Bildklassifizierung wurde.
Das AlexNet-Modell ist in acht Schichten, 5 Faltungsschichten und 3 vollständig verbundene Schichten unterteilt. Jede Faltungsschicht enthält die Anregungsfunktion RELU und die lokale Antwortnormalisierung (LRN). ) Verarbeitung und anschließendes Downsampling (Poolverarbeitung). (Empfohlenes Lernen: Web-Frontend-Video-Tutorial)
Erste Schicht: Faltungsschicht 1, Eingabe ist 224×224×3224 mal 224 mal 3224 Für ein ×224×3-Bild beträgt die Anzahl der Faltungskerne 96. In der Arbeit beträgt die Größe des Faltungskerns 11×11×311 mal 11 mal 311×11×3; = 4, Schritt stellt die Schrittgröße dar, Pad = 0, was bedeutet, dass die Kante nicht erweitert wird
Wie groß ist das Bild nach der Faltung?
wide = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>height = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>dimention = 96<br/>
Dann fahren Sie fort (Local Response Normalized), gefolgt von Pooling pool_size = (3, 3), stride = 2, pad = 0, um schließlich die Feature-Map der ersten Faltungsschicht zu erhalten
Zweite Ebene: Faltungsschicht 2, die Eingabe ist die Feature-Map der vorherigen Faltungsschicht, die Anzahl der Faltungen beträgt 256 und die beiden GPUs im Papier haben jeweils 128 Faltungen. Die Größe des Faltungskerns beträgt: 5 × 5 × 485 mal 5 mal 485 × 5 × 48 pad = 2, Schritt = 1; und schließlich max_pooling, pool_size = (3, 3), Schritt = 2;
Die dritte Schicht: Faltung 3, die Eingabe ist die Ausgabe der zweiten Schicht, die Anzahl der Faltungskerne beträgt 384, kernel_size = (3×3×2563 mal 3 mal 2563× 3×256 ), Polsterung = 1, die dritte Schicht führt kein LRN und Pool aus
Die vierte Schicht: Faltung 4, die Eingabe ist die Ausgabe der dritten Schicht, die Anzahl der Faltungskerne sind 384, kernel_size = (3×33 mal 33×3), padding = 1, wie die dritte Schicht, kein LRN und Pool
Fünfte Schicht:Faltung 5, Eingabe ist vierter Die Ausgabe der Schicht hat 256 Faltungskerne, kernel_size = (3×33 mal 33×3) und padding = 1. Fahren Sie dann direkt mit max_pooling, pool_size = (3, 3), stride = 2;
Die 6., 7. und 8. Schicht sind vollständig verbundene Schichten fort, die Anzahl der Neuronen in jeder Schicht ist 4096 und der endgültige Ausgabe-Softmax beträgt 1000, da wie oben erwähnt die Anzahl der Kategorien im ImageNet-Wettbewerb 1000 beträgt. RELU und Dropout werden in der vollständig verbundenen Schicht verwendet.
Das obige ist der detaillierte Inhalt vonDetaillierte Erläuterung der Alexnet-Netzwerkstruktur. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!