python - 使用python下载大文件的最佳方法

标签 python curl urllib2

就速度、内存、CPU 而言,哪个库/模块最适合下载 500mb 以上的大文件?我也在考虑使用 pycurl。

最佳答案

当大小超过 500MB 时,人们必须担心数据完整性,而 HTTP 的设计并未考虑到数据完整性。

我宁愿使用 python 绑定(bind)进行 rsync(如果存在),甚至使用 bittorrent,它最初是在 python 中实现的。 rsync 和 bittorrent 都解决了数据完整性问题。

关于python - 使用python下载大文件的最佳方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3402271/

相关文章:

python - urlopen windows ftp 错误

python - 5 次请求后 urllib2 HTTPPasswordMgrWithDefaultRealm 'loses' 密码

python - 遍历 my_dict.keys() 并修改字典中的值是否会使迭代器无效?

linux - curl 始终连接到特定 ip :port pair

python - urllib2.URL错误: urlopen error no host given

php - curl errno 35(连接到 [安全站点] :443) 时出现未知 SSL 协议(protocol)错误

rest - grails-RestClientBuilder

python - 找到字符串中的大写字母并替换它

python - 如何使用 OpenCV 检测与文档中的线条相交的复选框

python - Scipy Weibull 参数置信区间