在使用Scrapy框架中总是遇到这类问题,在此留下记录,方便查阅、

三种解决方式:
解决(一)
在Request中将scrapy的dont_filter=True,因为scrapy是默认过滤掉重复的请求URL,添加上参数之后即使被重定向了也能请求到正常的数据了

解决(二)
在scrapy框架中的 settings.py文件里添加

HTTPERROR_ALLOWED_CODES = [301]

解决(三)
使用requests模块遇到301和302问题时

url = 'https://www.baidu.com/'
html = requests.get(url, headers=headers, allow_redirects=False)
return html.headers['Location']
1
2
3
allow_redirects=False的意义为拒绝默认的301/302重定向从而可以通过html.headers[‘Location’]拿到重定向的URL。
 

解决(四)

查看链接是否更改为协议类型,如果之前是http类型的,改为https也会报301

相关文章:

  • 2022-12-23
  • 2021-12-13
  • 2021-11-27
  • 2021-07-05
  • 2021-07-24
  • 2021-12-25
  • 2021-10-01
  • 2021-11-20
猜你喜欢
  • 2021-10-15
  • 2021-12-20
  • 2022-01-05
  • 2022-02-08
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案