我正在尝试从经常更新的博客中收集数据,因此我只需使用一个 while 循环,其中包括 urllib2.urlopen("http:\example.com") 每 5 分钟刷新一次页面以收集我的数据通缉。
但是我注意到这样做并没有获得最新的内容,这与我通过Firefox等浏览器看到的内容不同,在检查了Firefox的源代码和我从python获得的同一页面后,我发现 WP Super Cache 阻止我获得最新结果。
即使我在 python 代码中欺骗了 header ,我仍然会得到相同的缓存页面。所以我想知道有没有办法绕过WP super 缓存?为什么 Firefox 中根本没有这样的 super 缓存?
最佳答案
您是否尝试过使用一些无害的数据更改 URL?像这样的事情:
import time
urllib2.urlopen("http:\example.com?time=%s" % int(time.time()))
它实际上会调用http:\example.com?time=1283872559
。如果存在查询字符串或不符合预期的内容,大多数缓存系统都会绕过缓存。
关于php - 如何使用python绕过WP super 缓存?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3659429/