linux - 如何从网站中提取图像链接并使用 wget 下载它们?

标签 linux wget

我真的很想从网站上下载图片,但我不太了解如何执行此操作。他们将图像托管在一个单独的网站上,我是如何使用 cat 或其他东西从网站上提取图像链接的,这样我就可以使用 wget 来下载它们。我只知道 wget 部分。例如 Reddit.com

  wget -i download-file-list.txt

最佳答案

试试这个:

wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path

它将从页面 http://reddit.com/some/path 开始递归 1 级深度,并且不会创建目录结构(如果需要目录,请删除 -nd),它只会下载以“jpg”、“jpeg”、“png”、“gif”或“bmp”结尾的文件。它将跨越主机。

关于linux - 如何从网站中提取图像链接并使用 wget 下载它们?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11706609/

相关文章:

linux - 在 epoll 被阻塞时添加/删除 fd

c - 如何在 C 的 curl 中启用 scp?

linux - Unix 逆序多列排序不起作用

bash - 在脚本变量中捕获 bash 时间的输出

amazon-s3 - 结合wget和aws s3 cp上传数据到S3无需本地保存

c - 在c中使用互斥锁进行多线程并一次运行一个线程

linux - 使用 wget 下载 html 页面中的嵌入链接

linux - 如何使用wget下载具有最新时间戳的目录

php - Windows 上的 WGET 通过 PHP exec() 不起作用

c - http_proxy 是否会在 Linux 中自动为所有应用程序工作?