通过urllib2+resquest爬虫百度贴吧网址,并保存至该工作目录下

一、示例代码

Python网络爬虫之爬取百度贴吧网址并保存
示例代码

代码解析:

1.首先定义一个baidu_tieba的函数:def baidu_tieba()

2.抓取的网页给重新命名并保存在工作目录下:

name = string.zfill(i,5) +'.html';

url = urllib2.Request(baurl)

m = urllib2.urlopen(url).read()

f.write(m)

3.手动输入网址、网页的页数等raw_input()

4.调用baidu_tieba的函数:def baidu_tieba()运行程序并查看运行结果

相关文章:

  • 2021-10-14
  • 2022-12-23
  • 2021-07-06
  • 2022-01-29
  • 2021-07-26
  • 2022-01-25
  • 2022-12-23
猜你喜欢
  • 2021-08-17
  • 2021-10-03
  • 2021-06-15
  • 2022-12-23
  • 2021-12-22
  • 2021-11-25
  • 2022-01-02
相关资源
相似解决方案