bash - 限制 wget 可以下载的大小

标签 bash unix wget

是否可以限制或限制从站点下载 wget 的数据量?通过服务器设置或 wget 设置?

例如,一页大小为1GB,我希望wget在100MB时停止下载。

最佳答案

利用系统通过 ulimit 命令限制进程资源消耗的能力应该可以正常工作。假设您使用 bash:

(ulimit -f 102400; wget $url)

这里的大小是 1024 字节 block 。请注意,如果您使用不同的仍然符合标准的 shell,或在 POSIX 模式下使用 bash,则 block 大小为 512 字节,因此命令应为:

(ulimit -f 204800; wget $url)

关于bash - 限制 wget 可以下载的大小,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20317945/

相关文章:

linux - 命令正在终端上运行,但在 bash 脚本中没有给出语法错误

mysql - 在C中将mysql数据库查询存储为变量

shell - 从多个文件的 grep 搜索中获取最后一行

wget 不适用于 Google 云端硬盘中的共享文件

wget - 为什么wget只下载某些网站的index.html?

bash - 有没有一种简单的方法可以将 "raw"字符串传递给 grep?

linux - 我无法取回 ls 命令文件

linux - 来自 shell 脚本的后台 rsync 和 pid

Bash - 多个替换为 sed 语句

linux - 使用 wget 和 SFTP 获取文件