suchen

Orte in PyTorch

Dec 29, 2024 pm 12:08 PM

Kauf mir einen Kaffee☕

*Mein Beitrag erklärt Places365.

Places365() kann den Places365-Datensatz wie unten gezeigt verwenden:

*Memos:

  • Das 1. Argument ist root(Required-Type:str oder pathlib.Path). *Ein absoluter oder relativer Pfad ist möglich.
  • Das 2. Argument ist geteilt (Optional-Default:"train-standard"-Type:str). *"train-standard" (1.803.460 Bilder), "train-challenge" (8.026.628 Bilder) oder "val" (36.500 Bilder) können darauf eingestellt werden. „test“ (328.500 Bilder) wird nicht unterstützt, daher habe ich die Funktion auf GitHub angefordert.
  • Das 3. Argument ist klein (Optional-Default:False-Type:bool).
  • Das 4. Argument ist download(Optional-Default:False-Type:bool): *Memos:
    • Wenn es wahr ist, wird der Datensatz aus dem Internet heruntergeladen und in das Stammverzeichnis extrahiert (entpackt).
    • Wenn es „True“ ist und der Datensatz bereits heruntergeladen wurde, wird er extrahiert.
    • Wenn es „True“ ist und der Datensatz bereits heruntergeladen und extrahiert wurde, tritt ein Fehler auf, weil die extrahierten Ordner vorhanden sind. *Beim Löschen der extrahierten Ordner wird keine Fehlermeldung angezeigt.
    • Es sollte False sein, wenn der Datensatz bereits heruntergeladen und extrahiert wurde, um keine Fehlermeldung zu erhalten.
    • Von hier:
      • Für split="train-standard" und small=False können Sie den Datensatz filelist_places365-standard.tar und train_large_places365standard.tar manuell herunterladen und nach data/ bzw. data/data_large_standard/ extrahieren.
      • Für split="train-standard" und small=True können Sie den Datensatz filelist_places365-standard.tar und train_256_places365standard.tar manuell herunterladen und nach data/ bzw. data/data_256_standard/ extrahieren.
      • Für split="train-challenge" und small=False können Sie den Datensatz filelist_places365-challenge.tar und train_large_places365challenge.tar manuell herunterladen und nach data/ bzw. data/data_large/ extrahieren.
      • Für split="train-challenge" und small=True können Sie den Datensatz filelist_places365-challenge.tar und train_256_places365challenge.tar manuell herunterladen und nach data/ bzw. data/data_256_challenge/ extrahieren.
      • Für split="val" und small=False können Sie den Datensatz filelist_places365-standard.tar und val_large.tar manuell herunterladen und nach data/ bzw. data/val_large/ extrahieren.
      • Für split="val" und small=True können Sie den Datensatz filelist_places365-standard.tar und val_large.tar manuell herunterladen und in data/ bzw. data/val_256/ extrahieren.
  • Das 5. Argument ist transform(Optional-Default:None-Type:callable).
  • Das 6. Argument ist target_transform(Optional-Default:None-Type:callable).
  • Das 7. Argument ist Loader (Optional-Default:torchvision.datasets.folder.default_loader-Type:callable).
  • Über die Bezeichnung aus den Klassen für die „Train-Standard“-Bildindizes: airfield(0) ist 0~4999, airplane_cabin(1) ist 5000~9999, airport_terminal(2) ist 10000~14999, Alkoven(3) ist 15000~19999, Gasse(4) ist 20000~24999, Amphitheater(5) ist 25000~29999, Vergnügungshalle(6) ist 30000~34999, Vergnügungspark(7) ist 35000~39999, Wohnungsgebäude/Außenbereich(8) ist 40000~44999, Aquarium(9) ist 45000~49999 , usw.
  • Über die Bezeichnung aus den Klassen für die „Train-Challenge“-Bildindizes: airfield(0) ist 0~38566, airplane_cabin(1) ist 38567~47890, airport_terminal(2) ist 47891~74901, Alkoven(3) ist 74902~98482, Gasse(4) ist 98483~137662, Amphitheater(5) ist 137663~150034, amusement_arcade(6) ist 150035~161051, amusement_park(7) ist 161052~201051, apartment_building/outdoor(8) ist 201052~227872, Aquarium(9) ist 227873~267872 usw.
from torchvision.datasets import Places365
from torchvision.datasets.folder import default_loader

trainstd_large_data = Places365(
    root="data"
)

trainstd_large_data = Places365(
    root="data",
    split="train-standard",
    small=False,
    download=False,
    transform=None,
    target_transform=None,
    loader=default_loader
)

trainstd_small_data = Places365(
    root="data",
    split="train-standard",
    small=True
)

trainchal_large_data = Places365(
    root="data",
    split="train-challenge",
    small=False
)

trainchal_small_data = Places365(
    root="data",
    split="train-challenge",
    small=True
)

val_large_data = Places365(
    root="data",
    split="val",
    small=False
)

val_small_data = Places365(
    root="data",
    split="val",
    small=True
)

len(trainstd_large_data), len(trainstd_small_data)
# (1803460, 1803460)

len(trainchal_large_data), len(trainchal_small_data)
# (8026628, 8026628)

len(val_large_data), len(val_small_data)
# (36500, 36500)

trainstd_large_data
# Dataset Places365
#     Number of datapoints: 1803460
#     Root location: data
#     Split: train-standard
#     Small: False

trainstd_large_data.root
# 'data'

trainstd_large_data.split
# 'train-standard'

trainstd_large_data.small
# False

trainstd_large_data.download_devkit
trainstd_large_data.download_images
# <bound method places365.download_devkit of dataset places365 number datapoints: root location: data split: train-standard small: false>

print(trainstd_large_data.transform)
# None

print(trainstd_large_data.target_transform)
# None

trainstd_large_data.loader
# <function torchvision.datasets.folder.default_loader str> Any>

len(trainstd_large_data.classes), trainstd_large_data.classes
# (365,
#  ['/a/airfield', '/a/airplane_cabin', '/a/airport_terminal',
#   '/a/alcove', '/a/alley', '/a/amphitheater', '/a/amusement_arcade',
#   '/a/amusement_park', '/a/apartment_building/outdoor',
#   '/a/aquarium', '/a/aqueduct', '/a/arcade', '/a/arch',
#   '/a/archaelogical_excavation', ..., '/y/youth_hostel', '/z/zen_garden'])

trainstd_large_data[0]
# (<pil.image.image image mode="RGB" size="683x512">, 0)

trainstd_large_data[1]
# (<pil.image.image image mode="RGB" size="768x512">, 0)

trainstd_large_data[2]
# (<pil.image.image image mode="RGB" size="718x512">, 0)

trainstd_large_data[5000]
# (<pil.image.image image mode="RGB" size="512x683" at>, 1)

trainstd_large_data[10000]
# (<pil.image.image image mode="RGB" size="683x512" at>, 2)

trainstd_small_data[0]
# (<pil.image.image image mode="RGB" size="256x256">, 0)

trainstd_small_data[1]
# (<pil.image.image image mode="RGB" size="256x256">, 0)

trainstd_small_data[2]
# (<pil.image.image image mode="RGB" size="256x256">, 0)

trainstd_small_data[5000]
# (<pil.image.image image mode="RGB" size="256x256">, 1)

trainstd_small_data[10000]
# (<pil.image.image image mode="RGB" size="256x256">, 2)

trainchal_large_data[0]
# (<pil.image.image image mode="RGB" size="683x512" at>, 0)

trainchal_large_data[1]
# (<pil.image.image image mode="RGB" size="768x512" at>, 0)

trainchal_large_data[2]
# (<pil.image.image image mode="RGB" size="718x512" at>, 0)

trainchal_large_data[38567]
# (<pil.image.image image mode="RGB" size="512x683" at>, 1)

trainchal_large_data[47891]
# (<pil.image.image image mode="RGB" size="683x512" at>, 2)

trainchal_small_data[0]
# (<pil.image.image image mode="RGB" size="256x256" at>, 0)

trainchal_small_data[1]
# (<pil.image.image image mode="RGB" size="256x256" at>, 0)

trainchal_small_data[2]
# (<pil.image.image image mode="RGB" size="256x256" at>, 0)

trainchal_small_data[38567]
# (<pil.image.image image mode="RGB" size="256x256" at>, 1)

trainchal_small_data[47891]
# (<pil.image.image image mode="RGB" size="256x256" at>, 2)

val_large_data[0]
# (<pil.image.image image mode="RGB" size="512x772" at>, 165)

val_large_data[1]
# (<pil.image.image image mode="RGB" size="600x493" at>, 358)

val_large_data[2]
# (<pil.image.image image mode="RGB" size="763x512" at>, 93)

val_large_data[3]
# (<pil.image.image image mode="RGB" size="827x512" at>, 164)

val_large_data[4]
# (<pil.image.image image mode="RGB" size="772x512" at>, 289)

val_small_data[0]
# (<pil.image.image image mode="RGB" size="256x256" at>, 165)

val_small_data[1]
# (<pil.image.image image mode="RGB" size="256x256" at>, 358)

val_small_data[2]
# (<pil.image.image image mode="RGB" size="256x256" at>, 93)

val_small_data[3]
# (<pil.image.image image mode="RGB" size="256x256" at>, 164)

val_small_data[4]
# (<pil.image.image image mode="RGB" size="256x256" at>, 289)

import matplotlib.pyplot as plt

def show_images(data, ims, main_title=None):
    plt.figure(figsize=(12, 6))
    plt.suptitle(t=main_title, y=1.0, fontsize=14)
    for i, j in enumerate(iterable=ims, start=1):
        plt.subplot(2, 5, i)
        im, lab = data[j]
        plt.imshow(X=im)
        plt.title(label=lab)
    plt.tight_layout(h_pad=3.0)
    plt.show()

trainstd_ims = (0, 1, 2, 5000, 10000, 15000, 20000, 25000, 30000, 35000)
trainchal_ims = (0, 1, 2, 38567, 47891, 74902, 98483, 137663, 150035, 161052)
val_ims = (0, 1, 2, 3, 4, 5, 6, 7, 8, 9)

show_images(data=trainstd_large_data, ims=trainstd_ims,
            main_title="trainstd_large_data")
show_images(data=trainstd_small_data, ims=trainstd_ims,
            main_title="trainstd_small_data")
show_images(data=trainchal_large_data, ims=trainchal_ims,
            main_title="trainchal_large_data")
show_images(data=trainchal_small_data, ims=trainchal_ims,
            main_title="trainchal_small_data")
show_images(data=val_large_data, ims=val_ims,
            main_title="val_large_data")
show_images(data=val_small_data, ims=val_ims,
            main_title="val_small_data")
</pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></function></bound>

Places in PyTorch

Places in PyTorch

Places in PyTorch

Places in PyTorch

Places in PyTorch

Places in PyTorch

Das obige ist der detaillierte Inhalt vonOrte in PyTorch. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Zusammenführen von Listen in Python: Auswählen der richtigen MethodeZusammenführen von Listen in Python: Auswählen der richtigen MethodeMay 14, 2025 am 12:11 AM

Tomgelistsinpython, Youcanusethe-Operator, ExtendMethod, ListCompredesion, Oritertools.chain, jeweils mitSpezifizierungen: 1) Der OperatorissimpleButlessEfficienceforlargelists; 2) Extendismory-Effizienzbutmodifiestheoriginallist;

Wie verkettet man zwei Listen in Python 3?Wie verkettet man zwei Listen in Python 3?May 14, 2025 am 12:09 AM

In Python 3 können zwei Listen mit einer Vielzahl von Methoden verbunden werden: 1) Verwenden Sie den Bediener, der für kleine Listen geeignet ist, jedoch für große Listen ineffizient ist. 2) Verwenden Sie die Erweiterungsmethode, die für große Listen geeignet ist, mit hoher Speicher -Effizienz, jedoch die ursprüngliche Liste. 3) Verwenden Sie * Operator, der für das Zusammenführen mehrerer Listen geeignet ist, ohne die ursprüngliche Liste zu ändern. 4) Verwenden Sie iTertools.chain, das für große Datensätze mit hoher Speicher -Effizienz geeignet ist.

Python Concatenate List SaitenPython Concatenate List SaitenMay 14, 2025 am 12:08 AM

Die Verwendung der join () -Methode ist die effizienteste Möglichkeit, Zeichenfolgen aus Listen in Python zu verbinden. 1) Verwenden Sie die join () -Methode, um effizient und leicht zu lesen. 2) Der Zyklus verwendet die Bediener für große Listen ineffizient. 3) Die Kombination aus Listenverständnis und Join () eignet sich für Szenarien, die Konvertierung erfordern. 4) Die Verringerung () -Methode ist für andere Arten von Reduktionen geeignet, ist jedoch für die String -Verkettung ineffizient. Der vollständige Satz endet.

Python -Ausführung, was ist das?Python -Ausführung, was ist das?May 14, 2025 am 12:06 AM

PythonexexecutionStheProcessOfTransformingPythonCodeIntoexexexecleableInstructions.1) ThePythonvirtualmachine (PVM) Ausführungen

Python: Was sind die wichtigsten Merkmale?Python: Was sind die wichtigsten Merkmale?May 14, 2025 am 12:02 AM

Zu den wichtigsten Merkmalen von Python gehören: 1. Die Syntax ist prägnant und leicht zu verstehen, für Anfänger geeignet; 2. Dynamisches Typsystem, Verbesserung der Entwicklungsgeschwindigkeit; 3. Reiche Standardbibliothek, Unterstützung mehrerer Aufgaben; 4. Starke Gemeinschaft und Ökosystem, die umfassende Unterstützung leisten; 5. Interpretation, geeignet für Skript- und Schnellprototypen; 6. Support für Multi-Paradigma, geeignet für verschiedene Programmierstile.

Python: Compiler oder Dolmetscher?Python: Compiler oder Dolmetscher?May 13, 2025 am 12:10 AM

Python ist eine interpretierte Sprache, enthält aber auch den Zusammenstellungsprozess. 1) Python -Code wird zuerst in Bytecode zusammengestellt. 2) Bytecode wird von Python Virtual Machine interpretiert und ausgeführt. 3) Dieser Hybridmechanismus macht Python sowohl flexibel als auch effizient, aber nicht so schnell wie eine vollständig kompilierte Sprache.

Python für Loop vs während der Schleife: Wann zu verwenden, welches?Python für Loop vs während der Schleife: Wann zu verwenden, welches?May 13, 2025 am 12:07 AM

UseaforloopwheniteratoverasequenceOrforaPecificNumberoftimes; UseaWhileloopWencontiningUntilAconDitionisMet.ForloopsardealForknown -Sequencies, während whileloopSuituationen mithungeterminediterationen.

Python Loops: Die häufigsten FehlerPython Loops: Die häufigsten FehlerMay 13, 2025 am 12:07 AM

PythonloopscanleadtoErors-ähnliche Finanzeloops, ModificingListsDuringiteration, Off-by-Oneerrors, Zero-Indexingissues und Nestroxinefficiens.toavoidthese: 1) Verwenden Sie

See all articles

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Nordhold: Fusionssystem, erklärt
4 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vorBy尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

MantisBT

MantisBT

Mantis ist ein einfach zu implementierendes webbasiertes Tool zur Fehlerverfolgung, das die Fehlerverfolgung von Produkten unterstützen soll. Es erfordert PHP, MySQL und einen Webserver. Schauen Sie sich unsere Demo- und Hosting-Services an.

SecLists

SecLists

SecLists ist der ultimative Begleiter für Sicherheitstester. Dabei handelt es sich um eine Sammlung verschiedener Arten von Listen, die häufig bei Sicherheitsbewertungen verwendet werden, an einem Ort. SecLists trägt dazu bei, Sicherheitstests effizienter und produktiver zu gestalten, indem es bequem alle Listen bereitstellt, die ein Sicherheitstester benötigen könnte. Zu den Listentypen gehören Benutzernamen, Passwörter, URLs, Fuzzing-Payloads, Muster für vertrauliche Daten, Web-Shells und mehr. Der Tester kann dieses Repository einfach auf einen neuen Testcomputer übertragen und hat dann Zugriff auf alle Arten von Listen, die er benötigt.

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

EditPlus chinesische Crack-Version

EditPlus chinesische Crack-Version

Geringe Größe, Syntaxhervorhebung, unterstützt keine Code-Eingabeaufforderungsfunktion

Herunterladen der Mac-Version des Atom-Editors

Herunterladen der Mac-Version des Atom-Editors

Der beliebteste Open-Source-Editor