linux - 我如何编写一个 bash 脚本来从文件中提取所有 http ://whatever. com/something

标签 linux bash gnu wget

我正在用 PHP 迁移一个站点,有人将所有链接硬编码到函数调用显示图像('http://whatever.com/images/xyz.jpg')中。

我可以轻松地使用 text mate 将所有这些转换为 http://whatever.com/images/xyz.jpg .

但我还需要做的是将图像一起带下来,例如 wget -i images.txt

但我需要编写一个 bash 脚本来编译包含所有链接的 images.txt,以免我手动执行此操作,因为有很多链接!

非常感谢您对此提供的任何帮助。

最佳答案

我在 that website 上找到了一条线这应该有效:(将 index.php 替换为您的来源)

wget `cat index.php | grep -P -o 'http:(\.|-|\/|\w)*\.(gif|jpg|png|bmp)'`

关于linux - 我如何编写一个 bash 脚本来从文件中提取所有 http ://whatever. com/something,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11626610/

相关文章:

linux - 如果我不调用 close(fd) 函数怎么办?

linux - 生成网页的图像(例如 jpg)?

linux - 如何在不遗漏字符/字符串的情况下将整个代码回显到 .bashrc?

linux - 如何在 shell 脚本中使用 sed 或 grep 检查空白字符?

bash - JQ 问题与对 Json 文件的评论

c++ - 在纯二进制应用程序中静态链接 libstdc++ 和 libgcc 是否合法?

c - 内核内存外/dev/mem 上的 Memcpy 性能

linux - 在 linux shell 中运行 MongoDB 命令的错误替换

c++ - LLVM C++ 和 GNU C++ 的标准库具有不同的 header

linux - 在哪里可以找到 GNU ar 文件格式规范?