linux - 如何使用多个下载流下载整个 Web 目录?

标签 linux command-line-interface

<分区>

我想下载一个包含 100 个大文件(每个 500MB - 1.5GB)的目录。唯一的问题是有下载速度限制,仅下载一个文件就需要将近一个小时。

Linux 上的什么内置命令或包能够下载具有多个下载流的 Web 目录中的所有文件?如果我必须重新启动,我需要程序忽略已经下载的文件。

最佳答案

阅读 wget 的手册页。它完全支持您想要的。

请注意,大多数网站会禁止您下载太多文件太快。有人为该带宽付费,如果您吸取太多带宽,它就会变成 tragedy of the commons .

关于linux - 如何使用多个下载流下载整个 Web 目录?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34863002/

相关文章:

linux - 重命名多个文件

linux - 计算单词出现的次数并显示出来

linux - 使用 Crontab 将输出格式更改为 SQLplus

php - 无法执行 exec 命令 (php/windows/ffmpeg)

command-line-interface - 如何在不打开 CLI 比较窗口的情况下比较两个文件夹?

amazon-web-services - AWS CLI -- 查询以按值选择标签

amazon-web-services - 来自 github 的模板路径无效,但直接在 cli Cloudformation 中执行时无效

linux - linux中 '~'和 '/'的区别

linux - 将 OpenCL 与 OpenGL 混合

Android NDk 和 CLI