recherche
MaisonPériphériques technologiquesIANormalisation par lots: théorie et implémentation TensorFlow

La formation en réseau neuronal profond fait souvent face à des obstacles comme la disparition / explosion de gradients et le changement de covariable interne, le ralentissement de l'entraînement et le gêne d'apprentissage. Les techniques de normalisation offrent une solution, la normalisation par lots (BN) étant particulièrement importante. BN accélère la convergence, améliore la stabilité et améliore la généralisation dans de nombreuses architectures d'apprentissage en profondeur. Ce tutoriel explique la mécanique de BN, ses fondements mathématiques et la mise en œuvre de TensorFlow / Keras.

La normalisation dans l'apprentissage automatique standardise les données d'entrée, en utilisant des méthodes telles que la mise à l'échelle Min-Max, la normalisation des scores Z et les transformations de journal en fonctionnalités de sauvetage. Cela atténue les effets aberrants, améliore la convergence et garantit une comparaison des fonctionnalités équitables. Les données normalisées garantissent une contribution aux caractéristiques égales au processus d'apprentissage, empêchant les fonctionnalités à plus grande échelle de dominer et de conduisant à des performances sous-optimales du modèle. Il permet au modèle d'identifier plus efficacement les modèles significatifs.

Les défis de formation en profondeur comprennent:

  1. Shift de covariable interne: Les changements de distribution des activations entre les couches pendant la formation, l'adaptation et l'apprentissage.
  2. Les gradients de disparition / explosion:
  3. Les gradients deviennent trop petits ou grands pendant la rétropropagation, entravant des mises à jour efficaces de poids.
  4. Sensibilité d'initialisation:
  5. Les poids initiaux influencent fortement l'entraînement; Une mauvaise initialisation peut entraîner une convergence lente ou échouée.

La normalisation par lots les aborde en normalisant les activations au sein de chaque mini-lots, en stabilisant la formation et en améliorant les performances du modèle.

La normalisation par lots normalise les activations d'une couche dans un mini-lot pendant l'entraînement. Il calcule la moyenne et la variance des activations pour chaque fonctionnalité, puis se normalise en utilisant ces statistiques. Les paramètres apprenables (γ et β) sont à l'échelle et décalent les activations normalisées, permettant au modèle d'apprendre la distribution d'activation optimale.

Batch Normalization: Theory and TensorFlow Implementation

Source: Yintai Ma et Diego Klabjan.

BN est généralement appliqué après la transformation linéaire d'une couche (par exemple, la multiplication matricielle dans les couches ou la convolution entièrement connectées dans les couches convolutionnelles) et avant la fonction d'activation non linéaire (par exemple, RELU). Les composants clés sont les statistiques de mini-lots (moyenne et variance), la normalisation et la mise à l'échelle / décalage avec des paramètres apprenables.

BN aborde le décalage de covariable interne en normalisant les activations au sein de chaque mini-lots, ce qui rend les entrées aux couches suivantes plus stables. Cela permet une convergence plus rapide avec des taux d'apprentissage plus élevés et réduit la sensibilité à l'initialisation. Il régulise également, empêchant le sur-ajustement en réduisant la dépendance à des modèles d'activation spécifiques.

Mathématiques de la normalisation par lots:

BN fonctionne différemment pendant la formation et l'inférence.

Formation:

  • Normalisation: Moyenne (μ B ) et la variance (σ b 2 ) sont calculées pour chaque caractéristique dans un mini-dossier:

Batch Normalization: Theory and TensorFlow Implementation

Batch Normalization: Theory and TensorFlow Implementation

Les activations (x i ) sont normalisées:

Batch Normalization: Theory and TensorFlow Implementation

(ε est une petite constante pour la stabilité numérique).

  • Échelle et décalage: Paramètres apprenables γ et β Scale and Shift:

Batch Normalization: Theory and TensorFlow Implementation

Inférence: Les statistiques par lots sont remplacées par des statistiques de fonctionnement (moyenne et variance) calculées pendant la formation en utilisant une moyenne mobile (facteur de momentum α):

Batch Normalization: Theory and TensorFlow Implementation

Batch Normalization: Theory and TensorFlow Implementation

Ces statistiques de course et les γ et β appris sont utilisés pour la normalisation pendant l'inférence.

Implémentation TensorFlow:

import tensorflow as tf
from tensorflow import keras

# Load and preprocess MNIST data (as described in the original text)
# ...

# Define the model architecture
model = keras.Sequential([
    keras.layers.Conv2D(32, (3, 3), activation='relu', input_shape=(28, 28, 1)),
    keras.layers.BatchNormalization(),
    keras.layers.Conv2D(64, (3, 3), activation='relu'),
    keras.layers.BatchNormalization(),
    keras.layers.MaxPooling2D((2, 2)),
    keras.layers.Flatten(),
    keras.layers.Dense(128, activation='relu'),
    keras.layers.BatchNormalization(),
    keras.layers.Dense(10, activation='softmax')
])

# Compile and train the model (as described in the original text)
# ...

Considérations d'implémentation:

  • Placement: après transformations linéaires et avant les fonctions d'activation.
  • Taille du lot: Les tailles de lots plus grandes fournissent des statistiques de lots plus précises.
  • régularisation: bn introduit un effet de régularisation.

Limites et défis:

  • Architectures non convolutionnelles: l'efficacité de BN est réduite dans les RNN et les transformateurs.
  • Tailles de petites lots: Statistiques de lots moins fiables.
  • frais généraux de calcul: Augmentation de la mémoire et du temps de formation.

Limitations d'atténuation: La normalisation du lot adaptative, la normalisation virtuelle des lots et les techniques de normalisation hybride peuvent répondre à certaines limitations.

Variants et extensions: La normalisation de la couche, la normalisation du groupe, la normalisation des instances, la renormalisation par lots et la normalisation du poids offrent des alternatives ou des améliorations en fonction des besoins spécifiques.

Conclusion: La normalisation par lots est une technique puissante améliorant la formation en réseau neuronal profond. N'oubliez pas ses avantages, ses détails de mise en œuvre et ses limites, et considérez ses variantes pour des performances optimales dans vos projets.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Robovan de Tesla était le joyau caché du teaser robotaxi de 2024Robovan de Tesla était le joyau caché du teaser robotaxi de 2024Apr 22, 2025 am 11:48 AM

Depuis 2008, j'ai défendu la camionnette partagée - initialement surnommée le "Robotjitney", plus tard le "Vansit" - comme l'avenir du transport urbain. Je prévois ces véhicules en tant que solution de transit de nouvelle génération du 21e siècle, surpas

Le club de Sam parie sur l'IA pour éliminer les chèques de réception et améliorer la vente au détailLe club de Sam parie sur l'IA pour éliminer les chèques de réception et améliorer la vente au détailApr 22, 2025 am 11:29 AM

Révolutionner l'expérience de paiement Le système innovant "Just Go" du Sam du Sam s'appuie sur sa technologie de numérisation "Scan & Go" existante, permettant aux membres de scanner des achats via l'application Sam's Club pendant leur voyage de shopping.

L'omniverse AI de Nvidia se dilate au GTC 2025L'omniverse AI de Nvidia se dilate au GTC 2025Apr 22, 2025 am 11:28 AM

La prévisibilité améliorée de Nvidia et la gamme de nouveaux produits au GTC 2025 Nvidia, un acteur clé de l'infrastructure d'IA, se concentre sur une prévisibilité accrue pour ses clients. Cela implique une livraison cohérente de produits, de répondre aux attentes de performance et

Explorer les capacités des modèles Google Gemma 2Explorer les capacités des modèles Google Gemma 2Apr 22, 2025 am 11:26 AM

Google's Gemma 2: un modèle de langage puissant et efficace La famille Gemma de modèles de langage de Google, célébrée pour l'efficacité et les performances, s'est développée avec l'arrivée de Gemma 2. Cette dernière version comprend deux modèles: un paramètre de 27 milliards

La prochaine vague de Genai: Perspectives avec le Dr Kirk Borne - Analytics VidhyaLa prochaine vague de Genai: Perspectives avec le Dr Kirk Borne - Analytics VidhyaApr 22, 2025 am 11:21 AM

Cet épisode de direction avec des données présente le Dr Kirk Borne, un principal scientifique des données, astrophysicien et conférencier TEDX. Expert renommé en Big Data, IA et Machine Learning, le Dr Borne offre des informations inestimables sur l'état actuel et le futur traje

IA pour les coureurs et les athlètes: nous faisons d'excellents progrèsIA pour les coureurs et les athlètes: nous faisons d'excellents progrèsApr 22, 2025 am 11:12 AM

Il y avait des perspectives très perspicaces dans ce discours - des informations sur le terrain sur l'ingénierie qui nous ont montré pourquoi l'intelligence artificielle est si bonne pour soutenir l'exercice physique des gens. Je vais décrire une idée de base du point de vue de chaque contributeur pour démontrer trois aspects de conception qui sont une partie importante de notre exploration de l'application de l'intelligence artificielle dans les sports. Dispositifs de bord et données personnelles brutes Cette idée de l'intelligence artificielle contient en fait deux composantes - l'une liée à l'endroit où nous placons de grands modèles de langue et l'autre est lié aux différences entre notre langage humain et la langue que nos signes vitaux «expriment» lorsqu'ils sont mesurés en temps réel. Alexander Amini en sait beaucoup sur la course et le tennis, mais il

Jamie Engstrom sur la technologie, le talent et la transformation à CaterpillarJamie Engstrom sur la technologie, le talent et la transformation à CaterpillarApr 22, 2025 am 11:10 AM

Le directeur de l'information de Caterpillar et vice-président principal de l'informatique, Jamie Engstrom, dirige une équipe mondiale de plus de 2 200 professionnels informatiques dans 28 pays. Avec 26 ans à Caterpillar, dont quatre ans et demi dans son rôle actuel, Engst

La nouvelle mise à jour de Google Photos fait apparaître n'importe quelle photo avec une qualité ultra hdrLa nouvelle mise à jour de Google Photos fait apparaître n'importe quelle photo avec une qualité ultra hdrApr 22, 2025 am 11:09 AM

Le nouvel outil Ultra HDR de Google Photos: un guide rapide Améliorez vos photos avec le nouvel outil ultra HDR de Google Photos, transformant des images standard en chefs-d'œuvre vibrants et à haut dynamique. Idéal pour les médias sociaux, cet outil augmente l'impact de toute photo,

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Outils chauds

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Navigateur d'examen sécurisé

Navigateur d'examen sécurisé

Safe Exam Browser est un environnement de navigation sécurisé permettant de passer des examens en ligne en toute sécurité. Ce logiciel transforme n'importe quel ordinateur en poste de travail sécurisé. Il contrôle l'accès à n'importe quel utilitaire et empêche les étudiants d'utiliser des ressources non autorisées.

Télécharger la version Mac de l'éditeur Atom

Télécharger la version Mac de l'éditeur Atom

L'éditeur open source le plus populaire

Version crackée d'EditPlus en chinois

Version crackée d'EditPlus en chinois

Petite taille, coloration syntaxique, ne prend pas en charge la fonction d'invite de code

Listes Sec

Listes Sec

SecLists est le compagnon ultime du testeur de sécurité. Il s'agit d'une collection de différents types de listes fréquemment utilisées lors des évaluations de sécurité, le tout en un seul endroit. SecLists contribue à rendre les tests de sécurité plus efficaces et productifs en fournissant facilement toutes les listes dont un testeur de sécurité pourrait avoir besoin. Les types de listes incluent les noms d'utilisateur, les mots de passe, les URL, les charges utiles floues, les modèles de données sensibles, les shells Web, etc. Le testeur peut simplement extraire ce référentiel sur une nouvelle machine de test et il aura accès à tous les types de listes dont il a besoin.