通常,下载我们都会用 requests 库去下载,大文这个库用起来太方便了。速度 使用以下流式代码,更快无论下载文件的下载大小如何,Python 内存占用都不会增加: def download_file(url): local_filename = url.split(/)[-1] # 注意传入参数 stream=True with requests.get(url,大文 stream=True) as r: r.raise_for_status() with open(local_filename, wb) as f: for chunk in r.iter_content(chunk_size=8192): f.write(chunk) 如果你有对 chunk 编码的需求,那就不该传入 chunk_size 参数,速度且应该有 if 判断。更快 def download_file(url): local_filename = url.split(/)[-1] # 注意传入参数 stream=True with requests.get(url,下载 stream=True) as r: r.raise_for_status() with open(local_filename, w) as f: for chunk in r.iter_content(): if chunk: f.write(chunk.decode("utf-8")) iter_content[1] 函数本身也可以解码,只需要传入参数 decode_unicode = True 即可。服务器托管大文另外,速度搜索公众号顶级Python后台回复“进阶”,更快获取一份惊喜礼包。下载 请注意,大文使用 iter_content 返回的速度字节数并不完全是 chunk_size,它是一个通常更大的随机数,并且预计在每次迭代中都会有所不同。服务器租用 使用 Response.raw[2] 和 shutil.copyfileobj[3] import requests import shutil def download_file(url): local_filename = url.split(/)[-1] with requests.get(url, stream=True) as r: with open(local_filename, wb) as f: shutil.copyfileobj(r.raw, f) 这将文件流式传输到磁盘而不使用过多的内存,并且代码更简单。 注意:根据文档,Response.raw 不会解码,因此如果需要可以手动替换 r.raw.read 方法 方法二更快。方法一如果 2-3 MB/s 的话,方法二可以达到近 40 MB/s。 [1]iter_content: https://requests.readthedocs.io/en/latest/api/#requests.Response.iter_content [2]Response.raw: https://requests.readthedocs.io/en/latest/api/#requests.Response.raw [3]shutil.copyfileobj: https://docs.python.org/3/library/shutil.html#shutil.copyfileobj