请我喝杯咖啡☕
*我的帖子解释了 Places365。
Places365() 可以使用 Places365 数据集,如下所示:
*备忘录:
- 第一个参数是 root(必需类型:str 或 pathlib.Path)。 *绝对或相对路径都是可能的。
- 第二个参数是 split(可选-默认:“train-standard”-类型:str)。 *可以设置“train-standard”(1,803,460张图像)、“train-challenge”(8,026,628张图像)或“val”(36,500张图像)。不支持“test”(328,500 张图像),因此我在 GitHub 上请求了该功能。
- 第三个参数很小(可选-默认:False-类型:bool)。
- 第四个参数是 download(可选-默认:False-类型:bool):
*备注:
- 如果为 True,则从互联网下载数据集并解压(解压)到根目录。
- 如果为 True 并且数据集已下载,则将其提取。
- 如果为 True 并且数据集已下载并提取,则会发生错误,因为提取的文件夹存在。 *删除解压的文件夹不会出错。
- 如果数据集已经下载并提取,则应该为 False,以免出现错误。
- 从这里开始:
- 对于split="train-standard"和small=False,您可以手动下载并提取数据集filelist_places365-standard.tar和train_large_places365standard.tar分别到data/和data/data_large_standard/
- 对于split="train-standard"和small=True,您可以手动下载并提取数据集filelist_places365-standard.tar和train_256_places365standard.tar分别到data/和data/data_256_standard/
- 对于split="train-challenge"和small=False,您可以手动下载并提取数据集filelist_places365-challenge.tar和train_large_places365challenge.tar分别到data/和data/data_large/
- 对于split="train-challenge"和small=True,您可以手动下载并提取数据集filelist_places365-challenge.tar和train_256_places365challenge.tar分别到data/和data/data_256_challenge/。
- 对于split="val" 和small=False,您可以手动下载数据集filelist_places365-standard.tar 和val_large.tar 并分别解压到data/ 和data/val_large/。
- 对于split="val" 和small=True,您可以手动下载数据集filelist_places365-standard.tar 和val_large.tar 并分别解压到data/ 和data/val_256/
- 第五个参数是transform(Optional-Default:None-Type:callable)。
- 第 6 个参数是 target_transform(Optional-Default:None-Type:callable)。
- 第 7 个参数是 loader(可选-默认:torchvision.datasets.folder.default_loader-Type:callable)。
- 关于“火车标准”图像索引类的标签,airfield(0) 为 0~4999,airplane_cabin(1) 为 5000~9999,airport_terminal(2) 为 10000~14999, 壁龛(3)为15000~19999,小巷(4)为20000~24999,露天剧场(5)为25000~29999,amusement_arcade(6) 是30000~34999,游乐园(7)为35000~39999,公寓/户外(8)为40000~44999,水族馆(9)为45000~49999 ,等等
- 关于“火车挑战”图像索引类的标签,airfield(0) 为 0~38566,airplane_cabin(1) 为 38567~47890,airport_terminal(2) 是47891~74901,壁龛(3)为74902~98482,小巷(4)为98483~137662,露天剧场(5)为137663~150034, 游乐园(6) 为 150035~161051,游乐园(7) 为 161052~201051,公寓楼/户外(8) 为 201052~227872, 水族馆(9)是227873~267872等
from torchvision.datasets import Places365 from torchvision.datasets.folder import default_loader trainstd_large_data = Places365( root="data" ) trainstd_large_data = Places365( root="data", split="train-standard", small=False, download=False, transform=None, target_transform=None, loader=default_loader ) trainstd_small_data = Places365( root="data", split="train-standard", small=True ) trainchal_large_data = Places365( root="data", split="train-challenge", small=False ) trainchal_small_data = Places365( root="data", split="train-challenge", small=True ) val_large_data = Places365( root="data", split="val", small=False ) val_small_data = Places365( root="data", split="val", small=True ) len(trainstd_large_data), len(trainstd_small_data) # (1803460, 1803460) len(trainchal_large_data), len(trainchal_small_data) # (8026628, 8026628) len(val_large_data), len(val_small_data) # (36500, 36500) trainstd_large_data # Dataset Places365 # Number of datapoints: 1803460 # Root location: data # Split: train-standard # Small: False trainstd_large_data.root # 'data' trainstd_large_data.split # 'train-standard' trainstd_large_data.small # False trainstd_large_data.download_devkit trainstd_large_data.download_images # <bound method places365.download_devkit of dataset places365 number datapoints: root location: data split: train-standard small: false> print(trainstd_large_data.transform) # None print(trainstd_large_data.target_transform) # None trainstd_large_data.loader # <function torchvision.datasets.folder.default_loader str> Any> len(trainstd_large_data.classes), trainstd_large_data.classes # (365, # ['/a/airfield', '/a/airplane_cabin', '/a/airport_terminal', # '/a/alcove', '/a/alley', '/a/amphitheater', '/a/amusement_arcade', # '/a/amusement_park', '/a/apartment_building/outdoor', # '/a/aquarium', '/a/aqueduct', '/a/arcade', '/a/arch', # '/a/archaelogical_excavation', ..., '/y/youth_hostel', '/z/zen_garden']) trainstd_large_data[0] # (<pil.image.image image mode="RGB" size="683x512">, 0) trainstd_large_data[1] # (<pil.image.image image mode="RGB" size="768x512">, 0) trainstd_large_data[2] # (<pil.image.image image mode="RGB" size="718x512">, 0) trainstd_large_data[5000] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainstd_large_data[10000] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainstd_small_data[0] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[1] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[2] # (<pil.image.image image mode="RGB" size="256x256">, 0) trainstd_small_data[5000] # (<pil.image.image image mode="RGB" size="256x256">, 1) trainstd_small_data[10000] # (<pil.image.image image mode="RGB" size="256x256">, 2) trainchal_large_data[0] # (<pil.image.image image mode="RGB" size="683x512" at>, 0) trainchal_large_data[1] # (<pil.image.image image mode="RGB" size="768x512" at>, 0) trainchal_large_data[2] # (<pil.image.image image mode="RGB" size="718x512" at>, 0) trainchal_large_data[38567] # (<pil.image.image image mode="RGB" size="512x683" at>, 1) trainchal_large_data[47891] # (<pil.image.image image mode="RGB" size="683x512" at>, 2) trainchal_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 0) trainchal_small_data[38567] # (<pil.image.image image mode="RGB" size="256x256" at>, 1) trainchal_small_data[47891] # (<pil.image.image image mode="RGB" size="256x256" at>, 2) val_large_data[0] # (<pil.image.image image mode="RGB" size="512x772" at>, 165) val_large_data[1] # (<pil.image.image image mode="RGB" size="600x493" at>, 358) val_large_data[2] # (<pil.image.image image mode="RGB" size="763x512" at>, 93) val_large_data[3] # (<pil.image.image image mode="RGB" size="827x512" at>, 164) val_large_data[4] # (<pil.image.image image mode="RGB" size="772x512" at>, 289) val_small_data[0] # (<pil.image.image image mode="RGB" size="256x256" at>, 165) val_small_data[1] # (<pil.image.image image mode="RGB" size="256x256" at>, 358) val_small_data[2] # (<pil.image.image image mode="RGB" size="256x256" at>, 93) val_small_data[3] # (<pil.image.image image mode="RGB" size="256x256" at>, 164) val_small_data[4] # (<pil.image.image image mode="RGB" size="256x256" at>, 289) import matplotlib.pyplot as plt def show_images(data, ims, main_title=None): plt.figure(figsize=(12, 6)) plt.suptitle(t=main_title, y=1.0, fontsize=14) for i, j in enumerate(iterable=ims, start=1): plt.subplot(2, 5, i) im, lab = data[j] plt.imshow(X=im) plt.title(label=lab) plt.tight_layout(h_pad=3.0) plt.show() trainstd_ims = (0, 1, 2, 5000, 10000, 15000, 20000, 25000, 30000, 35000) trainchal_ims = (0, 1, 2, 38567, 47891, 74902, 98483, 137663, 150035, 161052) val_ims = (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) show_images(data=trainstd_large_data, ims=trainstd_ims, main_title="trainstd_large_data") show_images(data=trainstd_small_data, ims=trainstd_ims, main_title="trainstd_small_data") show_images(data=trainchal_large_data, ims=trainchal_ims, main_title="trainchal_large_data") show_images(data=trainchal_small_data, ims=trainchal_ims, main_title="trainchal_small_data") show_images(data=val_large_data, ims=val_ims, main_title="val_large_data") show_images(data=val_small_data, ims=val_ims, main_title="val_small_data") </pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></pil.image.image></function></bound>
以上是PyTorch 中的位置的详细内容。更多信息请关注PHP中文网其他相关文章!

Tomergelistsinpython,YouCanusethe操作员,estextMethod,ListComprehension,Oritertools

在Python3中,可以通过多种方法连接两个列表:1)使用 运算符,适用于小列表,但对大列表效率低;2)使用extend方法,适用于大列表,内存效率高,但会修改原列表;3)使用*运算符,适用于合并多个列表,不修改原列表;4)使用itertools.chain,适用于大数据集,内存效率高。

使用join()方法是Python中从列表连接字符串最有效的方法。1)使用join()方法高效且易读。2)循环使用 运算符对大列表效率低。3)列表推导式与join()结合适用于需要转换的场景。4)reduce()方法适用于其他类型归约,但对字符串连接效率低。完整句子结束。

pythonexecutionistheprocessoftransformingpypythoncodeintoExecutablestructions.1)InternterPreterReadSthecode,ConvertingTingitIntObyTecode,whepythonvirtualmachine(pvm)theglobalinterpreterpreterpreterpreterlock(gil)the thepythonvirtualmachine(pvm)

Python的关键特性包括:1.语法简洁易懂,适合初学者;2.动态类型系统,提高开发速度;3.丰富的标准库,支持多种任务;4.强大的社区和生态系统,提供广泛支持;5.解释性,适合脚本和快速原型开发;6.多范式支持,适用于各种编程风格。

Python是解释型语言,但也包含编译过程。1)Python代码先编译成字节码。2)字节码由Python虚拟机解释执行。3)这种混合机制使Python既灵活又高效,但执行速度不如完全编译型语言。

useeAforloopWheniteratingOveraseQuenceOrforAspecificnumberoftimes; useAwhiLeLoopWhenconTinuingUntilAcIntiment.ForloopSareIdeAlforkNownsences,而WhileLeleLeleLeleLoopSituationSituationSituationsItuationSuationSituationswithUndEtermentersitations。

pythonloopscanleadtoerrorslikeinfiniteloops,modifyingListsDuringteritation,逐个偏置,零indexingissues,andnestedloopineflinefficiencies


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

螳螂BT
Mantis是一个易于部署的基于Web的缺陷跟踪工具,用于帮助产品缺陷跟踪。它需要PHP、MySQL和一个Web服务器。请查看我们的演示和托管服务。

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

SublimeText3汉化版
中文版,非常好用

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

Atom编辑器mac版下载
最流行的的开源编辑器