您好,我在网络上做了很多研究,但在大多数情况下,我在研究的所有时间都没有连接到 WWW。所以我想开始创建网站复制器应用程序...我知道 HHTrack 网站复制器,但该程序有其局限性,例如它无法复制任何维基百科页面..可能是因为它访问“目标”服务器在允许以一定程度访问的指定端口上。但我要找的基本上不是复制“整个”网站,而是复制其中的一部分。手动复制网页的过程很简单。 1) 转到 URL。 2) 单击文件>页面另存为。 3)确保您保存为“完整页面”。 3个简单的步骤。这将如何自动化?我可以使用宏,但那样只会做更多的工作。三倍的努力....
我可能会为 Firefox 创建一个插件,您可以将其放入您希望保存到计算机上的 URL 列表中。但我对 API/SDK 不是很熟悉,我可能会看看 HHTrack Src 并有点野蛮地拼凑一些部分并拼凑一个漂亮的拼图。但是,如果我想从头开始做这件事,我需要在 C、C++ 或 Java 中查看哪些 API?我不是在寻找图形用户界面。但只是一个简单的程序。那你有什么想法?
如果您想知道我在研究什么。数学、电信、编程、计算机体系结构、磁学。书籍要花钱,有时会提供比您需要的更多信息,而且不像上网本那样便携。仅仅因为我正在研究这些领域并不意味着我无所不知......提供这么多帮助才是最有帮助的。
最佳答案
Wget --mirror http://example.com
关于java - 我将如何着手创建网页复印机应用程序,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4697440/