請我喝杯咖啡☕
*我的貼文解釋了 Places365。
Places365() 可以使用 Places365 資料集,如下所示:
*備忘錄:
- 第一個參數是 root(必要類型:str 或 pathlib.Path)。 *絕對或相對路徑都是可能的。
- 第二個參數是 split(可選-預設:「train-standard」-類型:str)。 *可設定「train-standard」(1,803,460張圖像)、「train-challenge」(8,026,628張圖像)或「val」(36,500張圖像)。不支援「test」(328,500 張映像),因此我在 GitHub 上請求了該功能。
- 第三個參數很小(可選-預設:False-類型:bool)。
- 第四個參數是 download(可選-預設:False-類型:bool):
*備註:
- 如果為 True,則從網路下載資料集並解壓縮(解壓縮)到根目錄。
- 如果為 True 並且資料集已下載,則將其提取。
- 如果為 True 並且資料集已下載並提取,則會發生錯誤,因為提取的資料夾存在。 *刪除解壓縮的資料夾不會出錯。
- 如果資料集已經下載並提取,則應該為 False,以免發生錯誤。
- 從這裡開始:
- 對於split="train-standard"和small=False,您可以手動下載並提取資料集filelist_places365-standard.tar和train_large_places365standard.tar分別到data/和data/data_large_standard/
- 對於split="train-standard"和small=True,您可以手動下載並提取資料集filelist_places365-standard.tar和train_256_places365standard.tar分別到data/和data/data_256_standard/
- 對於split="train-challenge"和small=False,您可以手動下載並提取資料集filelist_places365-challenge.tar和train_large_places365challenge.tar分別到data/和data/data_large/
- 對於split="train-challenge"和small=True,您可以手動下載並提取資料集filelist_places365-challenge.tar和train_256_places365challenge.tar分別到data/和data/data_256_challenge/。
- 對於split="val" 和small=False,您可以手動下載資料集filelist_places365-standard.tar 和val_large.tar 並分別解壓縮到data/ 和data/val_large/。
- 對於split="val" 和small=True,您可以手動下載資料集filelist_places365-standard.tar 和val_large.tar 並分別解壓縮到data/ 和data/val_256/
- 第五個參數是transform(Optional-Default:None-Type:callable)。
- 第 6 個參數是 target_transform(Optional-Default:None-Type:callable)。
- 第 7 個參數是 loader(可選-預設:torchvision.datasets.folder.default_loader-Type:callable)。
- 關於「火車標準」影像索引類別的標籤,airfield(0) 為0~4999,airplane_cabin(1) 為5000~9999, >(2) 為10000~14999, 壁龕(3)為15000~19999,小巷(4)為20000~24999,露天劇場(5)為250000~2999,amusement_arcade(6)是30000~34999,遊樂園(7)為35000~39999,公寓/戶外(8)為40000~44999,水族箱 關於「火車挑戰」影像索引類別的標籤,airfield (0) 為0~38566,
- airplane_cabin(1) 為38567~47890,airport_terminal >(2)是47891~74901,壁龕(3)為74902~98482,小巷(4)為98483~137662,露天劇場(53) ~150034, 遊樂園(6) 為 150035~161051,遊樂園(7) 為 161052~201051,公寓樓/戶外(8) 201051,公寓樓/戶外(8) 2027225 水族館(9)是227873~267872等
from torchvision.datasets import Places365 from torchvision.datasets.folder import default_loader trainstd_large_data = Places365( root="data" ) trainstd_large_data = Places365( root="data", split="train-standard", small=False, download=False, transform=None, target_transform=None, loader=default_loader ) trainstd_small_data = Places365( root="data", split="train-standard", small=True ) trainchal_large_data = Places365( root="data", split="train-challenge", small=False ) trainchal_small_data = Places365( root="data", split="train-challenge", small=True ) val_large_data = Places365( root="data", split="val", small=False ) val_small_data = Places365( root="data", split="val", small=True ) len(trainstd_large_data), len(trainstd_small_data) # (1803460, 1803460) len(trainchal_large_data), len(trainchal_small_data) # (8026628, 8026628) len(val_large_data), len(val_small_data) # (36500, 36500) trainstd_large_data # Dataset Places365 # Number of datapoints: 1803460 # Root location: data # Split: train-standard # Small: False trainstd_large_data.root # 'data' trainstd_large_data.split # 'train-standard' trainstd_large_data.small # False trainstd_large_data.download_devkit trainstd_large_data.download_images # <bound method places365.download_devkit of dataset places365 number datapoints: root location: data split: train-standard small: false> print(trainstd_large_data.transform) # None print(trainstd_large_data.target_transform) # None trainstd_large_data.loader # <function torchvision.datasets.folder.default_loader str> Any> len(trainstd_large_data.classes), trainstd_large_data.classes # (365, # ['/a/airfield', '/a/airplane_cabin', '/a/airport_terminal', # '/a/alcove', '/a/alley', '/a/amphitheater', '/a/amusement_arcade', # '/a/amusement_park', '/a/apartment_building/outdoor', # '/a/aquarium', '/a/aqueduct', '/a/arcade', '/a/arch', # '/a/archaelogical_excavation', ..., '/y/youth_hostel', '/z/zen_garden']) trainstd_large_data[0] # (<pil.image.image image mode="RGB" size="683x512">, 0) trainstd_large_data[1] # (<pil.image.image image mode="RGB" size="768x512">, 0) trainstd_large_data[2] # (<pil.image.image image mode="RGB" size="718x512">, 0) trainstd_large_data[5000] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainstd_large_data[10000] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainstd_small_data[0] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[1] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[2] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[5000] # (<pil.image.image image mode="RGB" size="256x256">, 1) trainstd_small_data[10000] # (<pil.image.image image mode="RGB" size="256x256">, 2) trainchal_large_data[0] # (<pil.image.image image mode="RGB" size="683x512" at>, 0) trainchal_large_data[1] # (<pil.image.image image mode="RGB" size="768x512" at>, 0) trainchal_large_data[2] # (<pil.image.image image mode="RGB" size="718x512" at>, 0) trainchal_large_data[38567] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainchal_large_data[47891] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainchal_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[38567] # (<pil.image.image image mode="RGB" size="256x256" at>, 1) trainchal_small_data[47891] # (<pil.image.image image mode="RGB" size="256x256" at>, 2) val_large_data[0] # (<pil.image.image image mode="RGB" size="512x772" at>, 165) val_large_data[1] # (<pil.image.image image mode="RGB" size="600x493" at>, 358) val_large_data[2] # (<pil.image.image image mode="RGB" size="763x512" at>, 93) val_large_data[3] # (<pil.image.image image mode="RGB" size="827x512" at>, 164) val_large_data[4] # (<pil.image.image image mode="RGB" size="772x512" at>, 289) val_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 165) val_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 358) val_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 93) val_small_data[3] # (<pil.image.image image mode="RGB" size="256x256" at>, 164) val_small_data[4] # (<pil.image.image image mode="RGB" size="256x256" at>, 289) import matplotlib.pyplot as plt def show_images(data, ims, main_title=None): plt.figure(figsize=(12, 6)) plt.suptitle(t=main_title, y=1.0, fontsize=14) for i, j in enumerate(iterable=ims, start=1): plt.subplot(2, 5, i) im, lab = data[j] plt.imshow(X=im) plt.title(label=lab) plt.tight_layout(h_pad=3.0) plt.show() trainstd_ims = (0, 1, 2, 5000, 10000, 15000, 20000, 25000, 30000, 35000) trainchal_ims = (0, 1, 2, 38567, 47891, 74902, 98483, 137663, 150035, 161052) val_ims = (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) show_images(data=trainstd_large_data, ims=trainstd_ims, main_title="trainstd_large_data") show_images(data=trainstd_small_data, ims=trainstd_ims, main_title="trainstd_small_data") show_images(data=trainchal_large_data, ims=trainchal_ims, main_title="trainchal_large_data") show_images(data=trainchal_small_data, ims=trainchal_ims, main_title="trainchal_small_data") show_images(data=val_large_data, ims=val_ims, main_title="val_large_data") show_images(data=val_small_data, ims=val_ims, main_title="val_small_data") </pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></function></bound>
以上是PyTorch 中的位置的詳細內容。更多資訊請關注PHP中文網其他相關文章!

Tomergelistsinpython,YouCanusethe操作員,estextMethod,ListComprehension,Oritertools

在Python3中,可以通過多種方法連接兩個列表:1)使用 運算符,適用於小列表,但對大列表效率低;2)使用extend方法,適用於大列表,內存效率高,但會修改原列表;3)使用*運算符,適用於合併多個列表,不修改原列表;4)使用itertools.chain,適用於大數據集,內存效率高。

使用join()方法是Python中從列表連接字符串最有效的方法。 1)使用join()方法高效且易讀。 2)循環使用 運算符對大列表效率低。 3)列表推導式與join()結合適用於需要轉換的場景。 4)reduce()方法適用於其他類型歸約,但對字符串連接效率低。完整句子結束。

pythonexecutionistheprocessoftransformingpypythoncodeintoExecutablestructions.1)InternterPreterReadSthecode,ConvertingTingitIntObyTecode,whepythonvirtualmachine(pvm)theglobalinterpreterpreterpreterpreterlock(gil)the thepythonvirtualmachine(pvm)

Python的關鍵特性包括:1.語法簡潔易懂,適合初學者;2.動態類型系統,提高開發速度;3.豐富的標準庫,支持多種任務;4.強大的社區和生態系統,提供廣泛支持;5.解釋性,適合腳本和快速原型開發;6.多範式支持,適用於各種編程風格。

Python是解釋型語言,但也包含編譯過程。 1)Python代碼先編譯成字節碼。 2)字節碼由Python虛擬機解釋執行。 3)這種混合機制使Python既靈活又高效,但執行速度不如完全編譯型語言。

UseeAforloopWheniteratingOveraseQuenceOrforAspecificnumberoftimes; useAwhiLeLoopWhenconTinuingUntilAcIntiment.forloopsareIdealForkNownsences,而WhileLeleLeleLeleLeleLoopSituationSituationsItuationsItuationSuationSituationswithUndEtermentersitations。

pythonloopscanleadtoerrorslikeinfiniteloops,modifyingListsDuringteritation,逐個偏置,零indexingissues,andnestedloopineflinefficiencies


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

SublimeText3漢化版
中文版,非常好用

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

Atom編輯器mac版下載
最受歡迎的的開源編輯器