<分区>
我遇到了爬虫进程意外终止的问题。
我用的是scrapy 0.14,0.12也有这个问题。
scrapyd 日志显示如下条目:Process died: exitstatus=None 蜘蛛日志不显示蜘蛛关闭信息,正如我的数据库状态所描述的那样。
有没有人遇到过类似的情况?我如何追踪这些过程消失的原因,任何想法, 建议?
<分区>
我遇到了爬虫进程意外终止的问题。
我用的是scrapy 0.14,0.12也有这个问题。
scrapyd 日志显示如下条目:Process died: exitstatus=None 蜘蛛日志不显示蜘蛛关闭信息,正如我的数据库状态所描述的那样。
有没有人遇到过类似的情况?我如何追踪这些过程消失的原因,任何想法, 建议?
最佳答案
我想我也遇到过类似的情况。
进程死亡的原因是蜘蛛正在生成异常,使进程停止。
要找出异常,请查看 .scrapy
文件夹中某处的日志文件。对于每个启动的爬虫进程,scrapy 都会创建一个日志文件,其名称中包含作业 ID。
关于python - 爬虫进程意外死亡,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10130367/