python - 防止Scrapy在没有结果时生成空文件

标签 python python-3.x scrapy

当 scrapy 蜘蛛没有产生任何结果时,有没有办法阻止 scrapy 生成空文件?

使用示例

scrapy crawl lorem -o /path/to/lorem.json

使用的版本:

  • Python 3.6.0
  • Scrapy 1.3.0

最佳答案

这有点麻烦,但如果文件为空,您可以简单地删除该文件。
这可以通过 bash 中的单个命令来实现:

scrapy crawl myspider -o test.json && if ! cat test.json; then rm test.json; fi 

您甚至可以为其设置别名。

关于python - 防止Scrapy在没有结果时生成空文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41739848/

相关文章:

python - 根据转换为整数后的值对字典键进行排序

python - 如何使用 XPath 从 imdb.com 网站抓取新电影数据?

python - 使用 scrapy 链接请求

python - 图片类型错误 : OpenCV Python

python - 如何在seaborn中设置图表的位置?

python - 用 BeautifulSoup 刮掉多页

python-3.x - Windows Gitbash 上的权限被拒绝错误 : Python 3. 8

python - 元素的选择器(CSS 或 Xpath)

python - 如何动态构造方法?

python - 制作函数字典