python - 如何从 scrapy 蜘蛛回调中收集统计数据?

标签 python scrapy scrapy-spider

如何从蜘蛛回调中收集统计数据?

示例

class MySpider(Spider):
     name = "myspider"
     start_urls = ["http://example.com"]

def parse(self, response):
    stats.set_value('foo', 'bar')

不确定要导入 什么或如何使stats 一般可用。

最佳答案

查看 stats page from the scrapy documentation .文档指出 Stats Collector,但可能需要将 from scrapy.stats import stats 添加到您的爬虫代码中,以便能够使用它做一些事情。

编辑:冒着自吹自擂的风险,如果您想要一个具体的例子,我发布了一个 answer about how to collect failed urls .

EDIT2:经过大量谷歌搜索后,显然不需要导入。只需使用 self.crawler.stats.set_value()!

关于python - 如何从 scrapy 蜘蛛回调中收集统计数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22951418/

相关文章:

python - 在 Python 中计算十六进制的 MD5

python多处理特有的内存管理

javascript - 可以通过websocket发送音频文件吗?

python Scrapy CrawlSpider : Rule doesn't apply after logged in, 只抓取第一页

python - img src=blob : how to download image?

xpath - Scrapy:在Xpath中处理Abbr标签的问题

python - 在 python 和 numpy 中处理大数据,没有足够的内存,如何将部分结果保存在磁盘上?

python - 如何抓取 Angular JS Web 应用程序?

python - Scrapy:不收集所有页面的数据

python - Scrapy - 如何在使用脚本启动蜘蛛时加载项目级别的 settings.py