Scrapy爬虫暂停和重启

在当前项目下新建一个用于存储中间过程变量的目录
  注意不同的spider不能共用一个目录
  同一个spider每次运行时也必须使用新的目录
  mkdir <spider_porject_path>/job_process
 
带参数的命令启动方式
1 scrapy crawl <spider_name> -s JOBDIR=job_process/001

 

为什么不能在pycharm中使用能
  因为爬虫暂停接收的是Ctrl+C信号,而pychar暂停时没有使用Ctrl+C信号
 
一次Ctrl+C
暂停只能按一次,多次也会直接关闭,并且按下Ctrl+C后spider还是会继续运行,它需要完处理未完成的任务等善后工作

 

重新启动
scrapy crawl <spider_name> -s JOBDIR=job_process/001

# 可以观察到两次请求的第一个页面都不一样

 

相关文章:

  • 2022-12-23
  • 2022-01-05
  • 2022-02-12
  • 2021-04-18
  • 2021-12-12
  • 2021-05-26
猜你喜欢
  • 2021-07-07
  • 2022-12-23
  • 2021-09-19
  • 2022-01-24
  • 2022-12-23
  • 2022-01-21
相关资源
相似解决方案