<分区>
我想下载一个包含 100 个大文件(每个 500MB - 1.5GB)的目录。唯一的问题是有下载速度限制,仅下载一个文件就需要将近一个小时。
Linux 上的什么内置命令或包能够下载具有多个下载流的 Web 目录中的所有文件?如果我必须重新启动,我需要程序忽略已经下载的文件。
<分区>
我想下载一个包含 100 个大文件(每个 500MB - 1.5GB)的目录。唯一的问题是有下载速度限制,仅下载一个文件就需要将近一个小时。
Linux 上的什么内置命令或包能够下载具有多个下载流的 Web 目录中的所有文件?如果我必须重新启动,我需要程序忽略已经下载的文件。
最佳答案
阅读 wget 的手册页。它完全支持您想要的。
请注意,大多数网站会禁止您下载太多文件太快。有人为该带宽付费,如果您吸取太多带宽,它就会变成 tragedy of the commons .
关于linux - 如何使用多个下载流下载整个 Web 目录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34863002/