Rumah >Peranti teknologi >AI >Normalisasi Batch: Pelaksanaan Teori dan Tensorflow
Latihan rangkaian saraf yang mendalam sering menghadapi halangan seperti kecerunan lenyap/meletup dan peralihan kovariat dalaman, melambatkan latihan dan menghalang pembelajaran. Teknik normalisasi menawarkan penyelesaian, dengan normalisasi batch (BN) yang sangat menonjol. BN mempercepatkan penumpuan, meningkatkan kestabilan, dan meningkatkan penyebaran dalam banyak seni bina pembelajaran mendalam. Tutorial ini menerangkan mekanik BN, asas matematiknya, dan pelaksanaan Tensorflow/Keras.
Normalisasi dalam pembelajaran mesin menyeragamkan data input, menggunakan kaedah seperti skala min-max, normalisasi z-skor, dan transformasi log kepada ciri-ciri rescale. Ini mengurangkan kesan luar, meningkatkan penumpuan, dan memastikan perbandingan ciri yang adil. Data yang dinormalisasi memastikan sumbangan ciri yang sama kepada proses pembelajaran, mencegah ciri-ciri skala yang lebih besar daripada mendominasi dan membawa kepada prestasi model suboptimal. Ia membolehkan model mengenal pasti corak yang bermakna dengan lebih berkesan.
Cabaran Latihan Pembelajaran Deep termasuk:
normalisasi batch menangani ini dengan menormalkan pengaktifan dalam setiap batch mini, menstabilkan latihan dan meningkatkan prestasi model.
Normalisasi batch menormalkan pengaktifan lapisan dalam batch mini semasa latihan. Ia mengira min dan varians pengaktifan untuk setiap ciri, kemudian menormalkan menggunakan statistik ini. Skala parameter yang boleh dipelajari (γ dan β) dan mengalihkan pengaktifan yang dinormalisasi, yang membolehkan model mempelajari pengedaran pengaktifan optimum.
Bn biasanya digunakan selepas transformasi linear lapisan (mis., Multiplikasi matriks dalam lapisan yang disambungkan sepenuhnya atau konvolusi dalam lapisan konvolusi) dan sebelum fungsi pengaktifan bukan linear (mis., Relu). Komponen utama adalah statistik batch mini (min dan varians), normalisasi, dan skala/beralih dengan parameter yang boleh dipelajari.
BN menangani peralihan kovariat dalaman dengan menormalkan pengaktifan dalam setiap batch mini, membuat input ke lapisan berikutnya lebih stabil. Ini membolehkan penumpuan lebih cepat dengan kadar pembelajaran yang lebih tinggi dan mengurangkan kepekaan inisialisasi. Ia juga menghidupkan, mencegah overfitting dengan mengurangkan pergantungan pada corak pengaktifan tertentu.
Matematik normalisasi batch:
BN beroperasi secara berbeza semasa latihan dan kesimpulan.
Latihan:
) dinormalisasi:
(ε adalah pemalar kecil untuk kestabilan berangka).
Pertimbangan pelaksanaan:
saiz batch: saiz batch kecil: statistik kelompok yang kurang dipercayai. Kesimpulan: Normalisasi batch adalah teknik yang kuat meningkatkan latihan rangkaian saraf yang mendalam. Ingat manfaat, butiran pelaksanaan, dan batasannya, dan pertimbangkan variannya untuk prestasi optimum dalam projek anda.
pengaktifan (x
parameter yang boleh dipelajari γ dan skala β dan peralihan:
statistik batch digantikan dengan statistik berjalan (berjalan min dan varians) yang dikira semasa latihan menggunakan purata bergerak (faktor momentum α):
3 statistik batch:
Statistik berjalan dan γ dan β yang dipelajari digunakan untuk normalisasi semasa kesimpulan. Pelaksanaan TensorFlow:
import tensorflow as tf
from tensorflow import keras
# Load and preprocess MNIST data (as described in the original text)
# ...
# Define the model architecture
model = keras.Sequential([
keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)),
keras.layers.BatchNormalization(),
keras.layers.Conv2D(64, (3, 3), activation='relu'),
keras.layers.BatchNormalization(),
keras.layers.MaxPooling2D((2, 2)),
keras.layers.Flatten(),
keras.layers.Dense(128, activation='relu'),
keras.layers.BatchNormalization(),
keras.layers.Dense(10, activation='softmax')
])
# Compile and train the model (as described in the original text)
# ...
selepas transformasi linear dan sebelum fungsi pengaktifan.
Atas ialah kandungan terperinci Normalisasi Batch: Pelaksanaan Teori dan Tensorflow. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!