python - 爬虫进程意外死亡

标签 python scrapy scrapyd

<分区>

我遇到了爬虫进程意外终止的问题。

我用的是scrapy 0.14,0.12也有这个问题。

scrapyd 日志显示如下条目:Process died: exitstatus=None 蜘蛛日志不显示蜘蛛关闭信息,正如我的数据库状态所描述的那样。

有没有人遇到过类似的情况?我如何追踪这些过程消失的原因,任何想法, 建议?

最佳答案

我想我也遇到过类似的情况。

进程死亡的原因是蜘蛛正在生成异常,使进程停止。

要找出异常,请查看 .scrapy 文件夹中某处的日志文件。对于每个启动的爬虫进程,scrapy 都会创建一个日志文件,其名称中包含作业 ID。

关于python - 爬虫进程意外死亡,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10130367/

相关文章:

python - 如何填充图像边缘的圆形轮廓?

python - 将 Keras 模型集成到 TensorFlow 中

python - 无法使用 subprocess.Popen 在 Web 服务中打开 pdf 文件

web-scraping - Scrapy:抓取嵌套链接

python - 创建一个通用的 scrapy 蜘蛛

python - Portia Spider 日志在爬行期间显示 ['Partial' ]

python - 从现有 MySQL 数据库逆向工程 SQLAlchemy 声明性类定义?

python - Scrapy xpath 不起作用(也许是 parbase 的东西?)

python - 运行多个 Scrapy 蜘蛛(最简单的方法)Python

python - Scrapyd 暂停/继续工作