Achetez-moi un café☕
*Mon message explique Caltech 101.
Caltech101() peut utiliser l'ensemble de données Caltech 101 comme indiqué ci-dessous :
*Mémos :
- Le 1er argument est root (Required-Type:str ou pathlib.Path). *Un chemin absolu ou relatif est possible.
- Le 2ème argument est target_type(Optional-Default:"category"-Type:str ou tuple ou liste de str) :
*Mémos :
- "catégorie" et/ou "annotation" peuvent y être définies.
- Les 8.677 images avec les étiquettes de 101 catégories (classes) et/ou avec annotations sont renvoyées.
- Le 3ème argument est transform(Optional-Default:None-Type:callable).
- Le 4ème argument est target_transform(Optional-Default:None-Type:callable).
- Le 5ème argument est download(Optional-Default:False-Type:bool) :
*Mémos :
- Si c'est vrai, l'ensemble de données est téléchargé depuis Internet et extrait (décompressé) vers root.
- Si c'est True et que l'ensemble de données est déjà téléchargé, il est extrait.
- Si c'est vrai et que l'ensemble de données est déjà téléchargé et extrait, rien ne se passe.
- Il devrait être faux si l'ensemble de données est déjà téléchargé et extrait car il est plus rapide.
- gdown est requis pour télécharger l’ensemble de données.
- Vous pouvez télécharger et extraire manuellement l'ensemble de données (101_ObjectCategories.tar.gz et Annotations.tar) d'ici vers data/caltech101/.
- À propos des catégories (étiquettes) des indices d'images, Visages(0) vaut 0~434, Faces_easy(1) vaut 435~869, Léopards(2) est 870 ~ 1069, Motos(3) est 1070~1867, accordéon(4) est 1868~1922, avions(5) est 1923~2722, ancre(6) est 2723 ~ 2764, fourmi(7) est 2765~2806, baril(8) est 2807~2853, basse(9) est 2854~2907, etc. .
from torchvision.datasets import Caltech101 category_data = Caltech101( root="data" ) category_data = Caltech101( root="data", target_type="category", transform=None, target_transform=None, download=False ) annotation_data = Caltech101( root="data", target_type="annotation" ) all_data = Caltech101( root="data", target_type=["category", "annotation"] ) len(category_data), len(annotation_data), len(all_data) # (8677, 8677, 8677) category_data # Dataset Caltech101 # Number of datapoints: 8677 # Root location: data\caltech101 # Target type: ['category'] category_data.root # 'data/caltech101' category_data.target_type # ['category'] print(category_data.transform) # None print(category_data.target_transform) # None category_data.download # <bound method caltech101.download of dataset caltech101 number datapoints: root location: data target type:> len(category_data.categories) # 101 category_data.categories # ['Faces', 'Faces_easy', 'Leopards', 'Motorbikes', 'accordion', # 'airplanes', 'anchor', 'ant', 'barrel', 'bass', 'beaver', # 'binocular', 'bonsai', 'brain', 'brontosaurus', 'buddha', # 'butterfly', 'camera', 'cannon', 'car_side', 'ceiling_fan', # 'cellphone', 'chair', 'chandelier', 'cougar_body', 'cougar_face', ...] len(category_data.annotation_categories) # 101 category_data.annotation_categories # ['Faces_2', 'Faces_3', 'Leopards', 'Motorbikes_16', 'accordion', # 'Airplanes_Side_2', 'anchor', 'ant', 'barrel', 'bass', # 'beaver', 'binocular', 'bonsai', 'brain', 'brontosaurus', # 'buddha', 'butterfly', 'camera', 'cannon', 'car_side', # 'ceiling_fan', 'cellphone', 'chair', 'chandelier', 'cougar_body', ...] category_data[0] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="510x337">, 0) category_data[1] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="519x343">, 0) category_data[2] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="492x325">, 0) category_data[435] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="290x334">, 1) category_data[870] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="192x128">, 2) annotation_data[0] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="510x337">, # array([[10.00958466, 8.18210863, 8.18210863, 10.92332268, ...], # [132.30670927, 120.42811502, 103.52396166, 90.73162939, ...]])) annotation_data[1] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="519x343">, # array([[15.19298246, 13.71929825, 15.19298246, 19.61403509, ...], # [121.5877193, 103.90350877, 80.81578947, 64.11403509, ...]])) annotation_data[2] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="492x325">, # array([[10.40789474, 7.17807018, 5.79385965, 9.02368421, ...], # [131.30789474, 120.69561404, 102.23947368, 86.09035088, ...]])) annotation_data[435] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="290x334">, # array([[64.52631579, 95.31578947, 123.26315789, 149.31578947, ...], # [15.42105263, 8.31578947, 10.21052632, 28.21052632, ...]])) annotation_data[870] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="192x128">, # array([[2.96536524, 7.55604534, 19.45780856, 33.73992443, ...], # [23.63413098, 32.13539043, 33.83564232, 8.84193955, ...]])) all_data[0] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="510x337">, # (0, array([[10.00958466, 8.18210863, 8.18210863, 10.92332268, ...], # [132.30670927, 120.42811502, 103.52396166, 90.73162939, ...]])) all_data[1] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="519x343">, # (0, array([[15.19298246, 13.71929825, 15.19298246, 19.61403509, ...], # [121.5877193, 103.90350877, 80.81578947, 64.11403509, ...]])) all_data[2] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="492x325">, # (0, array([[10.40789474, 7.17807018, 5.79385965, 9.02368421, ...], # [131.30789474, 120.69561404, 102.23947368, 86.09035088, ...]])) all_data[3] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="538x355">, # (0, array([[19.54035088, 18.57894737, 26.27017544, 38.2877193, ...], # [131.49122807, 100.24561404, 74.2877193, 49.29122807, ...]])) all_data[4] # (<pil.jpegimageplugin.jpegimagefile image mode="RGB" size="528x349">, # (0, array([[11.87982456, 11.87982456, 13.86578947, 15.35526316, ...], # [128.34649123, 105.50789474, 91.60614035, 76.71140351, ...]])) import matplotlib.pyplot as plt def show_images(data, main_title=None): plt.figure(figsize=(10, 5)) plt.suptitle(t=main_title, y=1.0, fontsize=14) ims = (0, 1, 2, 435, 870, 1070, 1868, 1923, 2723, 2765, 2807, 2854) for i, j in enumerate(ims, start=1): plt.subplot(2, 5, i) if len(data.target_type) == 1: if data.target_type[0] == "category": im, lab = data[j] plt.title(label=lab) elif data.target_type[0] == "annotation": im, (px, py) = data[j] plt.scatter(x=px, y=py) plt.imshow(X=im) elif len(data.target_type) == 2: if data.target_type[0] == "category": im, (lab, (px, py)) = data[j] elif data.target_type[0] == "annotation": im, ((px, py), lab) = data[j] plt.title(label=lab) plt.imshow(X=im) plt.scatter(x=px, y=py) if i == 10: break plt.tight_layout() plt.show() show_images(data=category_data, main_title="category_data") show_images(data=annotation_data, main_title="annotation_data") show_images(data=all_data, main_title="all_data") </pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></pil.jpegimageplugin.jpegimagefile></bound>
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Il existe de nombreuses méthodes pour connecter deux listes dans Python: 1. Utilisez des opérateurs, qui sont simples mais inefficaces dans les grandes listes; 2. Utiliser la méthode Extende, qui est efficace mais modifiera la liste d'origine; 3. Utilisez l'opérateur = qui est à la fois efficace et lisible; 4. Utilisez la fonction itertools.chain, qui est efficace de la mémoire mais nécessite une importation supplémentaire; 5. Utilisez l'analyse de la liste, qui est élégante mais peut être trop complexe. La méthode de sélection doit être basée sur le contexte et les exigences du code.

Il existe de nombreuses façons de fusionner les listes Python: 1. Utilisez des opérateurs, qui sont simples mais pas efficaces par la mémoire pour les grandes listes; 2. Utiliser la méthode Extende, qui est efficace mais modifiera la liste d'origine; 3. Utilisez itertools.chain, qui convient aux grands ensembles de données; 4. Utiliser * l'opérateur, fusionner les listes de petites à moyennes dans une ligne de code; 5. Utilisez Numpy.concatenate, qui convient aux grands ensembles de données et scénarios avec des exigences de performance élevées; 6. Utilisez la méthode d'ajout, qui convient aux petites listes mais est inefficace. Lors de la sélection d'une méthode, vous devez considérer la taille de la liste et les scénarios d'application.

CompiledLanguagesOffersPeedandSecurity, tandis que l'interprété des langues de la durée de la valeur et de la sport.1) Compilé LanguagesLikec ArefasterandSecureButhAvelongerDevelopmentCyclesandPlatformDependency.2)

Dans Python, une boucle pour une boucle est utilisée pour traverser les objets itérable, et une boucle WHE est utilisée pour effectuer des opérations à plusieurs reprises lorsque la condition est satisfaite. 1) Pour l'exemple de boucle: traversez la liste et imprimez les éléments. 2) Place de Loop: Devinez le jeu numérique jusqu'à ce que vous le devassiez correctement. Les principes du cycle de maîtrise et les techniques d'optimisation peuvent améliorer l'efficacité et la fiabilité du code.

Pour concaténer une liste dans une chaîne, l'utilisation de la méthode join () dans Python est le meilleur choix. 1) Utilisez la méthode join () pour concaténer les éléments de liste en une chaîne, telle que '' .join (my_list). 2) Pour une liste contenant des numéros, convertissez la carte (STR, numéros) en une chaîne avant de concaténer. 3) Vous pouvez utiliser des expressions de générateur pour le formatage complexe, telles que ','. JOIN (f '({fruit})' forfruitInfruits). 4) Lors du traitement des types de données mixtes, utilisez MAP (STR, mixtes_list) pour vous assurer que tous les éléments peuvent être convertis en chaînes. 5) Pour les grandes listes, utilisez '' .join (grand_li

Pythonusesahybridapproach, combinantcompilationToByteDodeAnd Intrepretation.1) CodeSompiledToplatForment-indépendantBytecode.2) ByteCodeisInterpretedByThepyThonVirtualmachine, améliorant la performance et la portabilité.

Thekeydifferencesbetweenpython "pour" et "tandis que" Loopsare: 1) "pour" LoopsareIdEalForitatriant sur les séquences ouvraires, tandis que 2) "tandis que" LoopsarebetterforcontinUnUntilaconditionMetStwithoutPredefinedIberations.un.un

Dans Python, vous pouvez connecter des listes et gérer des éléments en double via une variété de méthodes: 1) Utiliser les opérateurs ou prolonger () pour conserver tous les éléments en double; 2) Convertissez en ensembles puis revenez aux listes pour supprimer tous les éléments en double, mais l'ordre d'origine sera perdu; 3) Utilisez des boucles ou des compréhensions de liste pour combiner des ensembles pour supprimer les éléments en double et maintenir l'ordre d'origine.


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

SublimeText3 Linux nouvelle version
Dernière version de SublimeText3 Linux

Version Mac de WebStorm
Outils de développement JavaScript utiles

ZendStudio 13.5.1 Mac
Puissant environnement de développement intégré PHP

MantisBT
Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

SublimeText3 version chinoise
Version chinoise, très simple à utiliser
