linux - 如何使用linux命令行批量下载数据?

标签 linux bash batch-processing

例如我想从以下位置下载数据: http://nimbus.cos.uidaho.edu/DATA/OBS/

链接:

http://nimbus.cos.uidaho.edu/DATA/OBS/pr_1979.nc

http://nimbus.cos.uidaho.edu/DATA/OBS/pr_2015.nc

如何编写脚本来下载所有这些文件?使用 wget?以及如何循环从 1979 年到 2015 年的链接?

最佳答案

wget 可以将文件作为输入,每行包含 URL。

wget -ci url_file

-i : 输入文件
-c : 恢复功能

所以您需要做的就是将 URL 放入一个文件中,然后将该文件与 wget 一起使用。

Jeff Puckett II's answer 这样的简单循环对于您的特定情况就足够了,但如果您碰巧要处理更复杂的情况(随机 url),此方法可能会派上用场。

关于linux - 如何使用linux命令行批量下载数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37233350/

相关文章:

sql - 在 native SQL 中批量提交大型 INSERT 操作?

java - 如何使用 JDBC 中的PreparedStatement 在表中存储长值?

java - 批量查询到 Cassandra

php - 安装 Zend Framework 和使用 zf 脚本时出现问题

linux - 列出多播套接字

linux - 如何杀死已经使用源执行的脚本?

bash - 通过 shell 脚本中的 s_client 关闭连接

regex - Grep 第一个八位字节中只有 1 位数字的 IP 地址

Linux - 无法执行二进制文件

bash - 使用 xargs 运行多个命令