我真的很想从网站上下载图片,但我不太了解如何执行此操作。他们将图像托管在一个单独的网站上,我是如何使用 cat 或其他东西从网站上提取图像链接的,这样我就可以使用 wget 来下载它们。我只知道 wget 部分。例如 Reddit.com
wget -i download-file-list.txt
最佳答案
试试这个:
wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path
它将从页面 http://reddit.com/some/path
开始递归 1 级深度,并且不会创建目录结构(如果需要目录,请删除 -nd
),它只会下载以“jpg”、“jpeg”、“png”、“gif”或“bmp”结尾的文件。它将跨越主机。
关于linux - 如何从网站中提取图像链接并使用 wget 下载它们?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11706609/