首页 >后端开发 >Python教程 >如何针对流式大文件下载优化 Python 的 Requests 库?

如何针对流式大文件下载优化 Python 的 Requests 库?

Barbara Streisand
Barbara Streisand原创
2024-12-17 19:31:10840浏览

How Can Python's Requests Library Be Optimized for Streaming Large File Downloads?

使用 Requests 在 Python 中进行流优化的文件下载

Requests 是一个著名的 HTTP 库,在处理超出可用内存的大文件下载时面临着挑战。为了克服这一限制,实现一种流式传输方法至关重要,该方法可以在收到文件块时读取和写入文件块。

传统方法(如提供的代码片段中所示)在这方面存在不足。尽管使用了 r.iter_content()(它以块的形式迭代响应内容),但响应仍然缓存在内存中。

要解决此问题,请考虑在代码中引入流功能。关键的修改在于requests.get()的实现,并将stream参数设置为True。这允许库检索响应内容而不将其存储在内存中:

def download_file(url):
    local_filename = url.split('/')[-1]
    with requests.get(url, stream=True) as r:
        r.raise_for_status()
        with open(local_filename, 'wb') as f:
            for chunk in r.iter_content(chunk_size=8192): 
                f.write(chunk)
    return local_filename

通过此优化,无论下载的文件大小如何,Python 的内存消耗都保持有限。使用具有指定块大小的 iter_content 可确保数据以可管理的部分写入文件,从而避免内存耗尽。

请注意,每个块中返回的字节数可能与指定的块大小不精确对齐。检索到的块大小发生变化并且明显大于指定大小是很常见的。有关此行为的详细信息,请参阅 iter_content 和正文内容工作流程的官方文档。

以上是如何针对流式大文件下载优化 Python 的 Requests 库?的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn