Kauf mir einen Kaffee☕
*Mein Beitrag erklärt Places365.
Places365() kann den Places365-Datensatz wie unten gezeigt verwenden:
*Memos:
- Das 1. Argument ist root(Required-Type:str oder pathlib.Path). *Ein absoluter oder relativer Pfad ist möglich.
- Das 2. Argument ist geteilt (Optional-Default:"train-standard"-Type:str). *"train-standard" (1.803.460 Bilder), "train-challenge" (8.026.628 Bilder) oder "val" (36.500 Bilder) können darauf eingestellt werden. „test“ (328.500 Bilder) wird nicht unterstützt, daher habe ich die Funktion auf GitHub angefordert.
- Das 3. Argument ist klein (Optional-Default:False-Type:bool).
- Das 4. Argument ist download(Optional-Default:False-Type:bool):
*Memos:
- Wenn es wahr ist, wird der Datensatz aus dem Internet heruntergeladen und in das Stammverzeichnis extrahiert (entpackt).
- Wenn es „True“ ist und der Datensatz bereits heruntergeladen wurde, wird er extrahiert.
- Wenn es „True“ ist und der Datensatz bereits heruntergeladen und extrahiert wurde, tritt ein Fehler auf, weil die extrahierten Ordner vorhanden sind. *Beim Löschen der extrahierten Ordner wird keine Fehlermeldung angezeigt.
- Es sollte False sein, wenn der Datensatz bereits heruntergeladen und extrahiert wurde, um keine Fehlermeldung zu erhalten.
- Von hier:
- Für split="train-standard" und small=False können Sie den Datensatz filelist_places365-standard.tar und train_large_places365standard.tar manuell herunterladen und nach data/ bzw. data/data_large_standard/ extrahieren.
- Für split="train-standard" und small=True können Sie den Datensatz filelist_places365-standard.tar und train_256_places365standard.tar manuell herunterladen und nach data/ bzw. data/data_256_standard/ extrahieren.
- Für split="train-challenge" und small=False können Sie den Datensatz filelist_places365-challenge.tar und train_large_places365challenge.tar manuell herunterladen und nach data/ bzw. data/data_large/ extrahieren.
- Für split="train-challenge" und small=True können Sie den Datensatz filelist_places365-challenge.tar und train_256_places365challenge.tar manuell herunterladen und nach data/ bzw. data/data_256_challenge/ extrahieren.
- Für split="val" und small=False können Sie den Datensatz filelist_places365-standard.tar und val_large.tar manuell herunterladen und nach data/ bzw. data/val_large/ extrahieren.
- Für split="val" und small=True können Sie den Datensatz filelist_places365-standard.tar und val_large.tar manuell herunterladen und in data/ bzw. data/val_256/ extrahieren.
- Das 5. Argument ist transform(Optional-Default:None-Type:callable).
- Das 6. Argument ist target_transform(Optional-Default:None-Type:callable).
- Das 7. Argument ist Loader (Optional-Default:torchvision.datasets.folder.default_loader-Type:callable).
- Über die Bezeichnung aus den Klassen für die „Train-Standard“-Bildindizes: airfield(0) ist 0~4999, airplane_cabin(1) ist 5000~9999, airport_terminal(2) ist 10000~14999, Alkoven(3) ist 15000~19999, Gasse(4) ist 20000~24999, Amphitheater(5) ist 25000~29999, Vergnügungshalle(6) ist 30000~34999, Vergnügungspark(7) ist 35000~39999, Wohnungsgebäude/Außenbereich(8) ist 40000~44999, Aquarium(9) ist 45000~49999 , usw.
- Über die Bezeichnung aus den Klassen für die „Train-Challenge“-Bildindizes: airfield(0) ist 0~38566, airplane_cabin(1) ist 38567~47890, airport_terminal(2) ist 47891~74901, Alkoven(3) ist 74902~98482, Gasse(4) ist 98483~137662, Amphitheater(5) ist 137663~150034, amusement_arcade(6) ist 150035~161051, amusement_park(7) ist 161052~201051, apartment_building/outdoor(8) ist 201052~227872, Aquarium(9) ist 227873~267872 usw.
from torchvision.datasets import Places365 from torchvision.datasets.folder import default_loader trainstd_large_data = Places365( root="data" ) trainstd_large_data = Places365( root="data", split="train-standard", small=False, download=False, transform=None, target_transform=None, loader=default_loader ) trainstd_small_data = Places365( root="data", split="train-standard", small=True ) trainchal_large_data = Places365( root="data", split="train-challenge", small=False ) trainchal_small_data = Places365( root="data", split="train-challenge", small=True ) val_large_data = Places365( root="data", split="val", small=False ) val_small_data = Places365( root="data", split="val", small=True ) len(trainstd_large_data), len(trainstd_small_data) # (1803460, 1803460) len(trainchal_large_data), len(trainchal_small_data) # (8026628, 8026628) len(val_large_data), len(val_small_data) # (36500, 36500) trainstd_large_data # Dataset Places365 # Number of datapoints: 1803460 # Root location: data # Split: train-standard # Small: False trainstd_large_data.root # 'data' trainstd_large_data.split # 'train-standard' trainstd_large_data.small # False trainstd_large_data.download_devkit trainstd_large_data.download_images # <bound method places365.download_devkit of dataset places365 number datapoints: root location: data split: train-standard small: false> print(trainstd_large_data.transform) # None print(trainstd_large_data.target_transform) # None trainstd_large_data.loader # <function torchvision.datasets.folder.default_loader str> Any> len(trainstd_large_data.classes), trainstd_large_data.classes # (365, # ['/a/airfield', '/a/airplane_cabin', '/a/airport_terminal', # '/a/alcove', '/a/alley', '/a/amphitheater', '/a/amusement_arcade', # '/a/amusement_park', '/a/apartment_building/outdoor', # '/a/aquarium', '/a/aqueduct', '/a/arcade', '/a/arch', # '/a/archaelogical_excavation', ..., '/y/youth_hostel', '/z/zen_garden']) trainstd_large_data[0] # (<pil.image.image image mode="RGB" size="683x512">, 0) trainstd_large_data[1] # (<pil.image.image image mode="RGB" size="768x512">, 0) trainstd_large_data[2] # (<pil.image.image image mode="RGB" size="718x512">, 0) trainstd_large_data[5000] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainstd_large_data[10000] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainstd_small_data[0] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[1] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[2] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[5000] # (<pil.image.image image mode="RGB" size="256x256">, 1) trainstd_small_data[10000] # (<pil.image.image image mode="RGB" size="256x256">, 2) trainchal_large_data[0] # (<pil.image.image image mode="RGB" size="683x512" at>, 0) trainchal_large_data[1] # (<pil.image.image image mode="RGB" size="768x512" at>, 0) trainchal_large_data[2] # (<pil.image.image image mode="RGB" size="718x512" at>, 0) trainchal_large_data[38567] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainchal_large_data[47891] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainchal_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[38567] # (<pil.image.image image mode="RGB" size="256x256" at>, 1) trainchal_small_data[47891] # (<pil.image.image image mode="RGB" size="256x256" at>, 2) val_large_data[0] # (<pil.image.image image mode="RGB" size="512x772" at>, 165) val_large_data[1] # (<pil.image.image image mode="RGB" size="600x493" at>, 358) val_large_data[2] # (<pil.image.image image mode="RGB" size="763x512" at>, 93) val_large_data[3] # (<pil.image.image image mode="RGB" size="827x512" at>, 164) val_large_data[4] # (<pil.image.image image mode="RGB" size="772x512" at>, 289) val_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 165) val_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 358) val_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 93) val_small_data[3] # (<pil.image.image image mode="RGB" size="256x256" at>, 164) val_small_data[4] # (<pil.image.image image mode="RGB" size="256x256" at>, 289) import matplotlib.pyplot as plt def show_images(data, ims, main_title=None): plt.figure(figsize=(12, 6)) plt.suptitle(t=main_title, y=1.0, fontsize=14) for i, j in enumerate(iterable=ims, start=1): plt.subplot(2, 5, i) im, lab = data[j] plt.imshow(X=im) plt.title(label=lab) plt.tight_layout(h_pad=3.0) plt.show() trainstd_ims = (0, 1, 2, 5000, 10000, 15000, 20000, 25000, 30000, 35000) trainchal_ims = (0, 1, 2, 38567, 47891, 74902, 98483, 137663, 150035, 161052) val_ims = (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) show_images(data=trainstd_large_data, ims=trainstd_ims, main_title="trainstd_large_data") show_images(data=trainstd_small_data, ims=trainstd_ims, main_title="trainstd_small_data") show_images(data=trainchal_large_data, ims=trainchal_ims, main_title="trainchal_large_data") show_images(data=trainchal_small_data, ims=trainchal_ims, main_title="trainchal_small_data") show_images(data=val_large_data, ims=val_ims, main_title="val_large_data") show_images(data=val_small_data, ims=val_ims, main_title="val_small_data") </pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></function></bound>
Das obige ist der detaillierte Inhalt vonOrte in PyTorch. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Tomgelistsinpython, Youcanusethe-Operator, ExtendMethod, ListCompredesion, Oritertools.chain, jeweils mitSpezifizierungen: 1) Der OperatorissimpleButlessEfficienceforlargelists; 2) Extendismory-Effizienzbutmodifiestheoriginallist;

In Python 3 können zwei Listen mit einer Vielzahl von Methoden verbunden werden: 1) Verwenden Sie den Bediener, der für kleine Listen geeignet ist, jedoch für große Listen ineffizient ist. 2) Verwenden Sie die Erweiterungsmethode, die für große Listen geeignet ist, mit hoher Speicher -Effizienz, jedoch die ursprüngliche Liste. 3) Verwenden Sie * Operator, der für das Zusammenführen mehrerer Listen geeignet ist, ohne die ursprüngliche Liste zu ändern. 4) Verwenden Sie iTertools.chain, das für große Datensätze mit hoher Speicher -Effizienz geeignet ist.

Die Verwendung der join () -Methode ist die effizienteste Möglichkeit, Zeichenfolgen aus Listen in Python zu verbinden. 1) Verwenden Sie die join () -Methode, um effizient und leicht zu lesen. 2) Der Zyklus verwendet die Bediener für große Listen ineffizient. 3) Die Kombination aus Listenverständnis und Join () eignet sich für Szenarien, die Konvertierung erfordern. 4) Die Verringerung () -Methode ist für andere Arten von Reduktionen geeignet, ist jedoch für die String -Verkettung ineffizient. Der vollständige Satz endet.

PythonexexecutionStheProcessOfTransformingPythonCodeIntoexexexecleableInstructions.1) ThePythonvirtualmachine (PVM) Ausführungen

Zu den wichtigsten Merkmalen von Python gehören: 1. Die Syntax ist prägnant und leicht zu verstehen, für Anfänger geeignet; 2. Dynamisches Typsystem, Verbesserung der Entwicklungsgeschwindigkeit; 3. Reiche Standardbibliothek, Unterstützung mehrerer Aufgaben; 4. Starke Gemeinschaft und Ökosystem, die umfassende Unterstützung leisten; 5. Interpretation, geeignet für Skript- und Schnellprototypen; 6. Support für Multi-Paradigma, geeignet für verschiedene Programmierstile.

Python ist eine interpretierte Sprache, enthält aber auch den Zusammenstellungsprozess. 1) Python -Code wird zuerst in Bytecode zusammengestellt. 2) Bytecode wird von Python Virtual Machine interpretiert und ausgeführt. 3) Dieser Hybridmechanismus macht Python sowohl flexibel als auch effizient, aber nicht so schnell wie eine vollständig kompilierte Sprache.

UseaforloopwheniteratoverasequenceOrforaPecificNumberoftimes; UseaWhileloopWencontiningUntilAconDitionisMet.ForloopsardealForknown -Sequencies, während whileloopSuituationen mithungeterminediterationen.

PythonloopscanleadtoErors-ähnliche Finanzeloops, ModificingListsDuringiteration, Off-by-Oneerrors, Zero-Indexingissues und Nestroxinefficiens.toavoidthese: 1) Verwenden Sie


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

MantisBT
Mantis ist ein einfach zu implementierendes webbasiertes Tool zur Fehlerverfolgung, das die Fehlerverfolgung von Produkten unterstützen soll. Es erfordert PHP, MySQL und einen Webserver. Schauen Sie sich unsere Demo- und Hosting-Services an.

SecLists
SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

EditPlus chinesische Crack-Version
Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

Herunterladen der Mac-Version des Atom-Editors
Der beliebteste Open-Source-Editor
