我们在爬取网站的时候,scrapy  默认的是遵循  robots.txt 协议,怎么破解这个文件

操作很简单,找到setting 文件

解决   scrapy   爬虫出现Forbidden by robots.txt

 

直接改成

解决   scrapy   爬虫出现Forbidden by robots.txt

 

相关文章:

  • 2021-10-04
  • 2021-07-19
  • 2022-01-16
  • 2021-11-19
  • 2022-12-23
猜你喜欢
  • 2022-01-26
  • 2022-02-22
  • 2021-11-16
  • 2022-12-23
  • 2021-07-11
  • 2021-11-18
  • 2021-12-17
相关资源
相似解决方案