scrapy框架默认是有去重(重复的请求直接忽略掉)设置的,就是如果多个请求完全相同,那么就会报错“Filtered duplicate request    no more duplicates will be shown (see DUPEFILTER_DEBUG to show all duplicates)”,代表两次请求完全相同,那么第二次请求就会被scrapy过滤掉。如果在项目中要求多次请求完全相同,那么需要在后面的请求里面加参数dont_filter=True”,即

request = scrapy.FormRequest(url=url, formdata=data_url, callback=self.get_parse,dont_filter=True)

  通过这个参数来关闭scrapy自动过滤功能。

相关文章:

  • 2021-11-29
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-23
  • 2021-09-19
  • 2021-08-13
猜你喜欢
  • 2021-09-16
  • 2021-08-23
  • 2021-12-13
  • 2021-04-29
  • 2021-10-06
  • 2022-12-23
相关资源
相似解决方案