python - Scrapy:通过 cmdLine 从同一 python 进程运行多个蜘蛛失败

标签 python web-scraping scrapy

代码如下:

if __name__ == '__main__':
    cmdline.execute("scrapy crawl spider_a -L INFO".split())
    cmdline.execute("scrapy crawl spider_b -L INFO".split())

我打算在 scrapy 项目下的同一个主门户中运行多个蜘蛛,但事实证明只有第一个蜘蛛已成功运行,而第二个蜘蛛似乎被忽略了。有什么建议么?

最佳答案

就这么做

import subprocess

subprocess.call('for spider in spider_a spider_b; do scrapy crawl $spider -L INFO; done', shell=True)

关于python - Scrapy:通过 cmdLine 从同一 python 进程运行多个蜘蛛失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47427271/

相关文章:

python - Flask + sqlalchemy 证书验证失败 : IP address mismatch

python - 我怎样才能从这个弹出窗口中抓取文本? [Python 和 Scrapy]

python - 为什么我的 scrapy 蜘蛛不抓取任何东西?

python - Scrapy Scraper 不会抓取除比第一页更远的内容

用于运行 shell 命令的 Python 脚本

python - 如何防止函数在 Python 中被覆盖

python - 类型错误 : sequence of byte string values expected, 找到类型 str 的值

Python 循环困惑

javascript - 如何为返回表中的每一行添加换行符?

json - 使用 JSON 将数据导入 Excel