<分区>
我需要一些方法来使用 php 或 linux 命令行复制和保存网站以供“离线使用”。就像用浏览器保存链接一样,它会重写图像标签并下载它们。
问题是当我找到问题的解决方案时,我通常会将链接保存在某处。随之而来的问题是有时链接会失效,所以我无法再访问它们。
所以我想的是创建一个工具,在我的服务器上为我保存页面并使用该 url。
我知道如何使用 file_get_contents 来获取文本/html,这在大多数情况下都有效,但我想,因为我正在创建一个工具,所以它也可以下载图像。我想用浏览器保存它并上传它,但我想要一种更简洁的方式来执行此操作。
如果有人知道某个图书馆或类似的东西,请帮助我。
谢谢!