我希望能够使用 Python 下载页面及其所有相关资源(图像、样式表、脚本文件等)。我(有点)熟悉 urllib2 并且知道如何下载单个 url,但是在我开始使用 BeautifulSoup + urllib2 进行黑客攻击之前,我想确保没有相当于“wget --page-requisites http://www.google.com”的 Python ”。
具体来说,我有兴趣收集有关下载整个网页(包括所有资源)所需时间的统计信息。
谢谢 标记
最佳答案
关于python - 在 Python 中下载网页及其所有资源文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/844115/