Maison > Article > Périphériques technologiques > Une exploration approfondie des méthodes d’apprentissage auto-supervisées de SSL
L'apprentissage auto-supervisé (SSL) est une méthode d'apprentissage non supervisé qui utilise des données non étiquetées pour entraîner un modèle. L'idée principale est de laisser le modèle apprendre une représentation des données sans étiquettes humaines. Une fois qu'un modèle apprend à représenter les données, il peut être appliqué à des tâches en aval avec moins de données étiquetées et obtenir de meilleures performances que les modèles sans apprentissage auto-supervisé. Grâce à l'apprentissage auto-supervisé, le modèle peut apprendre en utilisant des informations implicites contenues dans les données, par exemple en prédisant la rotation des données, les changements de couleur, etc. Cette méthode peut fournir une méthode d'apprentissage efficace en l'absence de données étiquetées et revêt une grande importance pour résoudre le problème de la formation de données à grande échelle.
1. Générez par programme des données d'entrée et des étiquettes à partir de données non étiquetées en fonction de la compréhension des données
2. Pré-formation : entraînez le modèle à l'aide des données/étiquettes de l'étape précédente
.3. Affinement : utilisez le modèle pré-entraîné comme poids initiaux pour entraîner la tâche qui vous intéresse
Apprentissage auto-supervisé dans divers domaines tels que le texte, l'image/la vidéo , parole et graphisme Un succès remarquable a été obtenu dans tous les aspects. Cela peut nous aider à comprendre la structure et les informations d'attribut dans les données graphiques et à extraire des informations utiles à partir de données non étiquetées. Par conséquent, l’apprentissage auto-supervisé est efficace pour extraire des données non étiquetées.
1. Méthode de génération : restaurer les
informations originales non autorégressives : masquer les marqueurs/pixels et prédire les marqueurs/pixels masqués (par exemple, modélisation du langage masqué (MLM))
b . Autorégressif : Prédire le prochain marqueur/pixel
2. Tâche de prédiction : Concevoir des étiquettes basées sur la compréhension, le regroupement ou l'augmentation des données
a : Prédire le contexte (par exemple, prédire la position relative des patchs d'image, prédire si le prochain fragment est la phrase suivante)
b : Prédire l'identifiant de chaque échantillon dans le cluster
c : Prédire l'angle de rotation de l'image
3 Apprentissage contrastif (également connu sous le nom de discrimination d'instance contrastive) : Établir un binaire basé sur le positif et le négatif. paires d'échantillons créées par amélioration Problème de classification
4. Méthode de bootstrapping : utiliser deux réseaux similaires mais différents pour apprendre la même représentation à partir de paires augmentées du même échantillon
5. Régularisation : ajouter des termes de perte et de régularisation basés sur des hypothèses/intuitions :
.a : Les paires positives doivent être similaires
b : La sortie de différents échantillons dans le même lot doit être différente
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!