scrapy - 在Scrapy的项目中使用多个蜘蛛

标签 scrapy

我想知道是否可以在同一项目中同时使用多个蜘蛛。其实我需要2个蜘蛛。第一个收集第二个蜘蛛应该爬取的链接。他们俩都在同一个网站上工作,所以域名是相似的,有可能吗?如果可以,请给我一个例子吗?
谢谢

最佳答案

也许这就是您要寻找的:

def parse(self, response):
    # parse the links (aka your first spider)
    for link in hxs('//XPATH'):
        yield Request(link.extract(), callback=self.parse_link)

def parse_link(self, response):
    # continue parsing (aka your second spider)

希望这对您有所帮助:)

关于scrapy - 在Scrapy的项目中使用多个蜘蛛,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/4886940/

相关文章:

python - 为什么 scrapy-redis 不起作用?

python - Scrapy:无法在 HTML 文档中使用 Xpath、response.css 选择内容

scrapy - 在scrapy中嵌套项目数据的正确方法

python - 空白和选择器

python - 下一页和 scrapy 爬虫不起作用

python - 在 Python 中使用 Scrapy 进行解析时保留换行符

python - scrapy:切换出失败的代理

python - scrapy 脚本运行时没有(明显的)错误但不抓取数据

scrapy - 需要 Microsoft Visual C++ 14.0。

python - Scrapy - 如何识别已经抓取的网址