(注意:您至少需要 10 个信誉才能发布超过 2 个链接。我不得不删除 http 和 url,但我希望它仍然可以理解!)
您好!
我正在尝试获取整个网站以供个人教育使用。网址如下所示:
example.com/download.php?id=1
我想下载从 1 到最后一页 4952 的所有页面
所以第一个网址是:
example.com/download.php?id=1
第二个是
example.com/download.php?id=4952
从 1 - 4952 下载页面的最有效方法是什么?
我当前的命令是(它工作得很好,正是我想要的方式):
wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1
注意:该网站有一个巨魔,如果您尝试运行以下命令:
wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php
它会下载一个 1000GB 的 .rar 文件来骗你!!!
我是 Linux 新手,请多多关照!只是想学习!
谢谢!
最佳答案
Notepad++ =
您的网址 + 列编辑器 = 所有网址的海量列表
Wget -I your_file_with_all_urls = 成功!
感谢巴马尔
关于linux - 用于下载多个 URLS 的 Wget 宏?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41233545/